Blog

Neuigkeiten, Termine, Veröffentlichungen




SiD auf der Jahreskonferenz Plattform Privatheit – Deutungsmuster zu Personalisierung im Internet

 

Digitale Infrastrukturen prägen zunehmend unseren Alltag, doch sie werfen auch komplexe Fragen auf. Eine der größten Herausforderungen ist die Vereinbarkeit von individueller Selbstbestimmung und dem Schutz kollektiver Grundrechte mit der Verarbeitung personenbezogener Daten. Besonders deutlich wird dies bei Personalisierung und personalisierter Werbung im Internet.

Viele Nutzer*innen sind unsicher darüber, welche Daten genau verarbeitet werden, wofür diese genutzt werden und welche Risiken damit verbunden sind. Datenverarbeiter versuchen zwar, über sogenannte Cookie-Banner aufzuklären, doch diese Informations- und Einwilligungsdialoge werden oft als wenig hilfreich wahrgenommen.

Zu diesem Thema präsentierte Maximilian Lukat erste Erkenntnisse aus dem Projekt “Sicher im Datenverkehr” auf der Jahreskonferenz der Plattform Privatheit, einer interdisziplinären Tagung rund um Forschung zu Datenschutz und Privatheit.

Mangelnde Transparenz als zentrales Problem

Der Vortrag thematisierte unter anderem, dass die Intransparenz der Datenverarbeitung ein zentrales Problem darstellt. Viele Menschen wissen nicht genau, was mit ihren Daten passiert, wenn sie einem Cookie-Banner zustimmen. Dies liegt auch daran, dass die verwendeten Informations- und Einwilligungsdialoge oft komplex und schwer verständlich gestaltet sind. Trotz dieser Unsicherheiten haben die Nutzer*innen jedoch klare Vorstellungen von den möglichen Konsequenzen ihrer Entscheidungen. Diese Vorstellungen sind geprägt von so genannten Deutungsmustern, also typischen Denkweisen, mit denen Menschen ihre soziale Wirklichkeit interpretieren.

Deutungsmuster von alltäglichen Internetnutzer*innen

Unser Forschungsprojekt untersucht diese Deutungsmuster genauer. Ziel ist es, die Beschreibungen der Datenverarbeiter, das Verständnis der Laien und die tatsächlichen Prozesse der Datenverarbeitung miteinander in Beziehung zu setzen.

Ein Deutungsmuster, das in der Analyse besonders hervorsticht und auf der Jahrestagung der Plattform Privatheit vorgestellt wurde, ist, dass viele Menschen datenverarbeitende Organisationen personifizieren. Sie beschreiben die Organisationen als Personen, die Zugang zur Datenverarbeitung und ihren Ergebnissen haben. Diese Personifizierung hilft den Betroffenen vermutlich, die oft abstrakten Prozesse der Datenverarbeitung greifbarer zu machen.

Unsere bisherige Auswertung zeigt jedoch auch, dass die Identität, die die Nutzer*innen von den Organisationen haben, ziemlich lückenhaft und schwammig ist und daher wahrscheinlich wenig Vertrauen ihnen gegenüber besteht. Wenn wir an diesem Punkt ansetzen und die Identität einer solchen datenverarbeitenden Organisation in Form einer Person oder eines kollektiven Akteurs stärker konkretisieren, kann es gelingen, das Bewusstsein für die Personalisierung im Internet zu schärfen.

Ausblick

Analysen wie die unsere sind wichtig, um gesetzliche Informationspflichten künftig besser zu erfüllen und die Gestaltung digitaler Infrastrukturen demokratischer und grundrechtsorientierter zu gestalten. Indem wir besser verstehen, wie Nutzer*innen digitale Dienste wahrnehmen, können wir auch die Aufklärungs- und Einwilligungsprozesse verbessern. Bisher fokussierte sich die Forschung nämlich mehr auf die komplexe Sicht der Expert*innen. Insbesondere der Ansatz, Verbesserungen aus Sicht der Nutzerinnen und Nutzer zu suchen, wurde daher auf der Konferenz positiv aufgenommen. So kann die Nutzung digitaler Infrastrukturen nicht nur transparenter, sondern auch sicherer und fairer gestaltet werden. Dies entspricht ganz dem Motto der Plattform Privatheit: “Forschung für ein selbstbestimmtes Leben in der digitalen Welt”.

Autor: Maximilian Lukat, 19.11.2024



Erhebung von Laienperspektiven mithilfe einer Interviewstudie

Im Projekt „Sicher im Datenverkehr“ (SiD) untersucht das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG), wie alltägliche Internetnutzer:Innen die Personalisierung von Werbung und Inhalten wahrnehmen und wie ihre Daten dafür verarbeitet werden. Problematisch bei Personalisierung im Internet ist, dass die vorgeschriebene Aufklärung über Datenverarbeitungspraktiken oft durch schwer verständliche Cookie-Banner und Einstellungen unzureichend umgesetzt wird. Daher verfolgt das Projekt das Ziel, die Lücke zwischen den Anforderungen der EU-Datenschutzgrundverordnung (DS-GVO) und der tatsächlichen Umsetzung zu schließen. Während einige Nutzer*Innen personalisierte Inhalte als hilfreich empfinden, sehen andere darin einen Eingriff in die Privatsphäre.

Die Auswahl der Stichprobe

Als Grundlage für unsere Analyse wurden zunächst Einzelinterviews durchgeführt. Die Rekrutierung erfolgte über E-Mail-Verteiler von Projektpartnern, über eine Werbekampagne auf Plattformen des Meta Konzerns, sowie auf den Webseiten des Instituts. Trotz der breit gestreuten Herangehensweise war die Rückmeldung zu Beginn relativ gering. Letztendlich umfasste die Stichprobe der Einzelinterviews insgesamt 18 Teilnehmende, davon neun Frauen und neun Männer. Die meisten Interviewpartner*innen waren Akademiker*innen und kamen überwiegend aus höheren Altersklassen. Trotz alledem wurde in jeder Altersklasse mindestens ein männlicher und eine weibliche Teilnehmer*in interviewt. Die Interviews wurden online durchgeführt.

Gruppendiskussionen zur Validierung der Interviews

Um die Erkenntnisse der Einzelinterviews zu validieren, wurden zwei Gruppendiskussionen Vorort am HIIG organisiert. Die Teilnehmer*innen wurden ebenfalls über E-Mai-Verteiler rekrutiert, ergänzt durch die persönliche Ansprache an öffentlichen Plätzen und dem Verteilen von Handzettel in Nachbarschaftszentren. Die Stichprobe der zwei Gruppendiskussionen umfasste insgesamt 15 Teilnehmer*innen (acht Männer, sieben Frauen), vorwiegend im Alter von 40 Jahren und aufwärts.

Herausforderungen bei der Erhebung

Die Auswahl der Stichproben stieß auf einige Herausforderungen, weshalb es sich hier um eine convenience sample handelt. Es gestaltete sich schwierig, jüngere Teilnehmer*innen für die Teilnahme zu gewinnen, sie scheinen die Themen als weniger relevant einzuordnen, da sie in einer digitalen Welt aufgewachsen sind und sich daher weniger mit den Veränderungen konfrontiert sehen. Es stellte sich unter anderem heraus, dass einige der Teilnehmer*innen mehr Vorwissen hatten, als ursprünglich gewünscht. Dies wurde zwar versucht zu umgehen, indem bei der Rekrutierung das Internetnutzungsverhalten und der Beruf abgefragt wurden. Ganz vermeiden ließ sich dies jedoch nicht.

Des Weiteren wurde zum Teil erwartet, dass bei den Gruppendiskussionen eine Art Aufklärung zu den Themen Datenschutz und Personalisierung stattfindet. Das unterstreicht, dass der Wunsch nach mehr Information in diesen Bereichen existiert und die Relevanz des Projekts verdeutlicht.

Ausblick

Im nächsten Schritt werden erneut Einzelinterviews und Gruppendiskussionen durchgeführt, diesmal jedoch mit Expert*innen aus dem Bereich der Personalisierung im Internet. Anschließend sollen die Alltagserfahrungen der Nutzer:innen und das Expert*innenwissen zusammengeführt werden. Aus der Verschmelzung des Verständnisses der Laien und des Expert*innenwissens soll besser über die Risiken und Vorteile von Personalisierung im Internet aufgeklärt werden. Das Projekt SiD macht damit einen wichtigen Schritt, die Anforderungen der DS-GVO wirksamer umsetzen zu können.

Autorin: Johanna Spiegl, 05.11.2024

Workshop auf der CPDP 2024

Vom 22.-14. Mai 2024 haben Daniel Guagnin, Max von Grafenstein und Volkan Sayman auf der diesjährigen Ausgabe der CPDP-Konferenzen (Computers, Privacy and Data Protection Konferenz) einen Workshop zu den Grundrechtsrisiken im Zusammenhang mit personalisierter Werbung veranstaltet. Es ergab sich eine sehr produktive Diskussion mit den fachkundigen Teilnehmenden über drei Personalisierungs-Frameworks (NetID, Googles Privacy Sandbox und TCF) zu möglichen Auswirkungen auf die Nutzer:innen und den Schutz ihrer Grundrechte.

Im ersten Schritt wurden auf der Grundlage des multidisziplinären Fachwissens der Teilnehmer verschiedene potenzielle (negative und positive) Folgen der verschiedenen Datenströme der Personalisierungs-Frameworks diskutiert. Zusammenfassend ergab sich der Eindruck, dass trotz unterschiedlicher Praktiken der Datenverarbeitung, die Risiken teilweise dieselben bleiben – allen voran Nichtdiskriminierung, Verbraucherschutz, Recht auf Eigentum, Achtung des Privatlebens, Schutz personenbezogener Daten. Die Wahrscheinlichkeit und Schwere der Risiken variiert je nach dem Ort, an dem die personenbezogenen Profile gespeichert werden, und je nach Umfang, Art der Verarbeitung und Grad der Aggregation der personalisierten Profile. Eine detaillierte Analyse wird im weiteren Projektverlauf durchgeführt. Derzeit sammeln wir genauere Informationen über die technischen Bedingungen der Frameworks und führen qualitative Interviews mit Laien durch, um ihre Wahrnehmung von Grundrechtsrisiken der Verarbeitung personenbezogener Daten zu erheben.

Im Großen und Ganzen, war es nicht einfach, die entsprechenden Grundrechtsrisiken abzuleiten. In den laufenden empirischen Arbeiten des Forschungsprojekts „SiD“ („Sicher im Datenverkehr“) zeigt sich bereits, dass es für Lai:innen sehr schwierig ist, Datenströme und mögliche Grundrechtsrisiken zu verstehen. Ergebnisse der Analyse erwarten wir im Herbst. Der Workshop in der vergangenen Woche hat gezeigt, dass eine Diskussion über Grundrechte im Zusammenhang mit der Verarbeitung personenbezogener Daten vor allem dann sinnvoll ist, wenn ein Mindestmaß an Verständnis über die tatsächlichen Datenströme und die Interdependenzen zwischen den Akteur:innen besteht. Von Lai:innen kann kaum erwartet werden, dass sie sich dieses Verständnis selbst verschaffen, und es gibt wenig öffentlich zugängliches Informationsmaterial in leicht verständlicher Sprache, das ihnen hilft, diese Zusammenhänge herzustellen.

Der Workshop hat gezeigt: Grundrechte sind ein sinnvoller Fokus, um die Diskussion über Datenschutz (be-)greifbar zu machen, und eine Bewertung und Abwägung der Risiken der Datenverarbeitung zu ermöglichen. Im Rahmen des Forschungsprojekts werden weitere interaktive und partizipative Untersuchungen mit Expert:innen und Lai:innen zu ihrem Verständnis der grundrechtlichen Risiken der Personalisierung durchgeführt. Das interdisziplinäre Projekt zielt darauf ab, Visualisierungen und Erzählungen von Grundrechtsrisiken zu entwickeln, die leicht verständlich sind und dem Interpretationsrahmen von Lai:innen entsprechen, die sich in der digitalen Welt bewegen.


Den originale Linkedin-Post von Daniel Guagnin auf Englisch finden Sie hier.

Foto: Guy Kindermans