Call for Papers: Forum Privatheit 2021 - Auswirkungen der Künstlichen Intelligenz auf Demokratie & Privatheit

CALL FOR PAPERS

Thema: Forum Privatheit 2021 - Auswirkungen der Künstlichen Intelligenz auf Demokratie & Privatheit

Interdisziplinäre Konferenz am 18. und 19. Nov. 2021


Die digitale Transformation von Gesellschaften hat nicht nur weiter an Dynamik gewonnen, sondern auch immer deutlicher spürbar globale Wirkungs- und Problemzusammenhänge ausgebildet. Heute sind es vor allem Systeme der Künstlichen Intelligenz (KI), die im Zentrum des Interesses stehen. Von besonderer Bedeutung sind hier algorithmische Datenauswertungen zur gesellschaftlichen Steuerung, die eine Bedeutung für die politische Entscheidungsfindung und die Strukturierung öffentlicher Kommunikation haben und so die Lebenswirklichkeit der Bürgerinnen und Bürger mitgestalten.

Während vielfach hohe Erwartungen an die Möglichkeiten der ökonomischen Verwertung und administrativen Nutzung von KI-Systemen haben, ist es auf der Regulierungsebene nach wie vor schwer, die damit einhergehenden Herausforderungen in den Griff zu bekommen. Im Spannungsfeld zwischen „überwachungskapitalistischen“ KI-Systemen und „überwachungsstaatlichen“ Systemen steht Privatheit als Grundwert der demokratischen Gesellschaft einmal mehr vor einer Bewährungsprobe.

Die neuen Formen der Datafizierung ändern nicht nur die Konzepte des Privatheitsschutzes, sondern stellen auch das Verständnis von Privatheit selbst in Frage. Negative Einflüsse werden aktuell insbesondere an überwachend oder „manipulativ“ wirkenden Technologien festgemacht. Verwiesen sei an dieser Stelle auf Schlagworte wie „Gesichtserkennung“, „intelligente Videoüberwachung“, „Big Nudging“, „Micro Targeting“, “Predictive Policing”, etc. Insbesondere die anlasslose Massenüberwachung stützt sich auf Verfahren der künstlichen Intelligenz und ist ihrerseits mit demokratiegefährdenden Tendenzen verbunden. 

Auch die Anwendung computergenerierter probabilistischer Einschätzungen und Prognosen auf Gruppen und einzelne Personen kann als Privatheitsproblem verstanden werden. Brisanz erhält dieses dadurch, dass die zugrundeliegenden Verfahren mitunter jenseits etablierter Schutzkonzepte operieren, weil statistische Verfahren ggf. nicht mit „personenbezogener Daten“ im engeren Sinne arbeiten. Künstliche Intelligenz ermöglicht demnach nicht nur Entscheidungen, die zur Steuerung und Organisation sozialer Systeme verwendet werden, sondern auch die Extraktion privater Informationen aus „unverdächtigen“ Datensätzen. Während dies im Falle der Beantwortung einfacher Kundenfragen noch sinnvoll erscheint, ermöglicht dieselbe Technologie auch die großflächige Meinungsmanipulation mittels des Einsatzes von Bot-Armeen.

Alle diese Technologien können zu einer Gefahr für demokratische Werte und Prozesse werden, wenn etwa Filterblasen zur Verbreitung von Falschmeldungen sowie Radikalisierungstendenzen im öffentlichen Diskurs beitragen. Illegitime Informationsbestände, die jedoch eine besonders hohe Popularität unter den Nutzenden sozialer Netzwerke genießen, entfalten häufig eine stärkere Wirkung als Richtigstellungen oder differenzierte und ausgewogene Informationsbestände.

Solche Praktiken adressieren in der Regel alle Bevölkerungsgruppen. Es muss aber berücksichtigt werden, dass die Folgen für die Selbstbestimmung aufgrund unterschiedlicher individueller Voraussetzungen für unterschiedliche gesellschaftliche Gruppen verschieden sein können. Kinder und Jugendlichen oder ältere Personen sind etwa gegenüber ausforschenden und verhaltenssteuernden Technologien besonders verletzlich, da sie auf anderen Kompetenzniveaus agieren, als Gruppen mit hoher „digital literacy.“ Die Fähigkeiten, Kenntnisse oder Mittel, die diesen Gruppen zum wirksamen Schutz ihrer informationellen Selbstbestimmung zu Verfügung stehen, müssen daher anders bewertet, gefördert und kollektiv abgestützt werden als im Falle der übrigen  Gesellschaftsmitglieder. Darüber hinaus ist auch zu berücksichtigen, dass sich Menschen und ihr Umfeld über ihre Lebensspanne erheblich ändern und damit auch die Aussagekraft der über sie gesammelten Daten. 

Im Rahmen der Konferenz wollen wir uns interdisziplinär mit den Gestaltungsherausforderungen auseinandersetzen, die die skizzierten Transformationsprozesse im Spannungsfeld von Privatheit, Demokratie und Anwendungen der künstlichen Intelligenz mit sich bringen. Dies betrifft eine Vielzahl von Einzelfragen, von denen hier nur einige exemplarisch genannt sein sollen:

Künstliche Intelligenz

   - Transformation von Privatheitskonzepten durch KI-bezogene Technologien

   - Privatsphäre-bewusste KI; KI und Privacy by Design

   - Ethische und gesellschaftsverträgliche KI-Gestaltung

   - Erwartung von Nutzenden an KI, Berücksichtigung von Nutzungsgewohnheiten und Verhaltensweisen; Bewusstsein für und Wahrnehmung von Risiken

   - KI zur Unterstützung von Datenschutz (Analyse von Datenschutzrichtlinien; Erkennung von Datenschutzverletzungen)

Demokratie

   - Desinformation, Propaganda und Cyberwar

   - Plattformen und Plattformregulierung

   - Micro Targeting

   - Social Scoring und Predictive Analytics

   - Open Data und Shared Data Spaces (Datentreuhänder und andere Modelle zur Demokratisierung der Datennutzung)

   - Electoral Content Moderation

Lebensphasen und -situationen

   - Phasen- und situationsspezifische Datenschutzkonzepte

   - Datenschutz bei Kindern und Jugendlichen

   - Datenschutz bei Senioren

   - Datenschutz bei weiteren vulnerablen gesellschaftlichen Gruppen

Internationale Perspektive

   - EU-Regulierung für KI

   - Europäische Cloudlösungen

   - Regulierung für Medienintermediäre/Plattformen

KI, Datenschutz und Privatheit in verschiedenen Anwendungsfeldern, z.B.

   - Stimm- und Spracherkennung

   - Gesichtserkennung

   - Internet of Things

   - Smart Cities

   - Polizeiarbeit und Strafverfolgung

   - Finanzwesen

   - Bildungswesen

 ...


Organisatorisches:

Dieser Call for Papers richtet sich an Wissenschaftler:innen der technischen, geistes-, sozial- und ingenieurwissenschaftlichen Disziplinen, der Rechtswissenschaft, Soziologie, Psychologie, Philosophie, Politik-, Wirtschafts-, Medien- und Kommunikationswissenschaften sowie aller anderen einschlägig in den genannten Feldern arbeitenden Disziplinen. Wir freuen uns sowohl über empirische als auch über theoretische Arbeiten, besonders begrüßt werden fachübergreifende Einreichungen. Für die Präsentation stehen 20 Minuten und für die Diskussion 10 Minuten zur Verfügung. Vortragssprache ist Deutsch, in Ausnahmefällen auch Englisch. Nach Absprache können den Vortragenden Reisekosten erstattet werden.

Vorschläge für Beiträge sind in Form eines „extended abstracts“ (maximal drei Seiten, 800 bis 1100 Wörter, ohne Literaturangaben) bis zum 30.06.2021 über EasyChair einzureichen: https://easychair.org/my/conference?conf=forumprivatheit2021

Die Autoren und Autorinnen ausgewählter Beiträge werden nach der Tagung eingeladen, eine ausgearbeitete Version ihrer Beiträge zur Publikation im Tagungsband einzureichen, der voraussichtlich im Springer-Verlag erscheinen wird.

Der Ort der Konferenz steht noch nicht fest: Geplant ist aktuell eine hybride Veranstaltung, bei der alle Vortragenden an einem Ort zusammenkommen, das Publikum aber per Internet teilnimmt.

Weitere Informationen zur Konferenz finden Sie hier: https://www.forum-privatheit.de/veranstaltungen/jahreskonferenz-2021/


Kontakt:

Dr. Michael Friedewald, Murat Karaboga
Fraunhofer Institut für System- und Innovationsforschung ISI
Prof. Dr. Alexander Roßnagel, Tamer Bile
Universität Kassel, Wissenschaftliche Zentrum für Informationstechnik-Gestaltung

Wichtige Termine:

Deadline für die Einreichung von Abstracts: 30.06.2021

Benachrichtigung der Autor:innen über Annahme: 15.08.2021

Beginn der Online-Anmeldung: 01.07.2021

Tagung: 18./19.11.2021

Aufforderung zur Einreichung für den Tagungsband: 30.11.2021

Deadline Einreichung von Kapiteln für den Tagungsband: vsl. Februar 2022

Begutachtung und Überarbeitung der Kapitel: Frühjahr 2022

Veröffentlichung des Tagungsbands: vsl. Spätsommer 2022

Deutsche Gesellschaft für Recht und Informatik e.V. (DGRI)