Neuigkeiten, Termine, Veröffentlichungen
Personalisierte Werbung im Internet – Was denken Laien, was denken Experten und welche Schritte sind notwendig, um personalisierte Werbung verständlicher zu gestalten?
Personalisierte Werbung ist ein großer Bestandteil des Internets geworden. Das hat seinen Grund, denn sie finanziert auf der einen Seite viele kostenfreie Angebote wie Handyspiele & freie Zeitungsartikel, brigt auf der anderen Seite allerdings auch Risiken für Nutzende im Bezug auf deren personalisierte, teils unkontrollierte Datenweitergabe. Laut Statistas “Digital Advertising Report” (2022) kommt 86% der globalen Werbeumsatzverteilung für 2022 aus Programmatic Advertising – und darin wird der Großteil mit personalisierten Daten verdient.
Der Vize-Präsident des Europäischen Forschungsrats Gerd Gigerenzer beschrieb das Phänomen in einem seiner Bücher als “The Free Coffeehouse”: Es gibt gratis Kaffee im Free Coffeehouse – insofern gibt es keine alternativen Cafés mehr – weil sich die meisten Menschen in dem “günstigeren” Café treffen wollen. Aber das hat einen Haken: Das Free Coffeehouse ist voll mit Kameras, Mikrofonen & Verkäufer*Innen, die für den Kaffee zahlen, einem dafür aber ständig ins Wort fallen, während man versucht sich mit Freunden zu unterhalten. Im Internet ist der Prozess natürlich deutlich subtiler.
Doch wie wird Personalisierung im realen Leben von Nutzenden wahrgenommen? Das Projekt „Sicher im Datenverkehr“ (SiD) untersucht, wie alltägliche Internetnutzende & Expert*Innen die Personalisierung von Werbung und Inhalten erleben und welche Risiken und Vorteile sie sehen und ob diese übereinstimmen.
Zwischen Consent Fatigue & Privacy Erwachen
Aus Sicht eines Unternehmens, das Cookie-Banner anbietet, sehen wir aktuell zwei gegenläufige Trends:
- Consent Fatigue: Nutzende sind “genervt” von Cookie-Bannern und reagieren irgendwie – Hauptsache die Banner verschwinden schnell.
- Privacy Erwachen: Nutzende nehmen sich Zeit, klicken auch auf weitere Ebenen im Cookie-Banner und treffen dedizierte Entscheidungen. Das sehen wir aktuell in der Datenbank von Usercentrics.
Die Herausforderung der Transparenz & der Konsequenz
Ein grundsätzliches Problem hierbei ist, dass viele Nutzende unsicher sind, welche Daten wann verarbeitet werden, wofür diese genutzt werden und welche Risiken damit verbunden sind. Cookie-Banner oder Consent Management Plattformen, die für Aufklärung sorgen sollen, werden häufig als komplex und damit nicht immer hilfreich empfunden. Ein großes Problem ist dabei, dass viele Cookie-Banner zwar über die Kategorien und Technologien auf der Website oder in der App informieren, ebenso warum diese verwendet werden, aber nicht zwangsläufig über die Konsequenzen einer Einwilligung für Nutzende. Konsequenzen können sein, dass ein Youtube-Video geladen werden darf (Mehrwert), dafür aber personenbezogene Daten an Google weitergeleitet werden (Risiko). Die Intransparenz der Datenverarbeitung ist dabei ein zentrales Problem. So ist es nicht verwunderlich, dass ein Ergebnis der Laieninterviews im Forschungsprojekt gezeigt hat, dass die meisten Konsumierenden nicht wissen, was mit ihren Daten geschieht, nachdem sie einem Cookie-Banner zugestimmt haben.
Risiken der personalisierten Werbung
Personalisierte Werbung birgt verschiedene Risiken:
- Eingriffe in die Privatsphäre: Nutzende haben nur bedingt Einblicke in und Kontrolle über die Verarbeitung ihrer Daten. Die Art der erhobenen Daten, die daraus abgeleiteten Informationen und der Umfang, in dem diese Informationen geteilt werden, können die Privatsphäre beeinträchtigen.
- Nudging zur Kaufentscheidung: Durch die Analyse von personalisierten Daten können Unternehmen ein Bild von den Präferenzen und Interessen von Nutzenden gewinnen und diese einsetzen, um eine Kaufentscheidung zu beeinflussen.
- Materielle und gesundheitliche Schäden: Nutzende können dazu verleitet werden, Produkte zu kaufen, die sie nicht benötigen oder die nicht ihren Interessen entsprechen. Die gezielte Ansprache gefährdeter Gruppen kann zu physischen und psychischen gesundheitlichen Schäden führen.
Nutzer*Innenerfahrungen und Reaktionen
Aus den Interviews konnten wir herleiten, dass sich Nutzer*Innen in 3 Gruppen unterteilen lassen.
Es gibt eine Gruppe, die personalisierte Werbung oft als aufdringlich und unheimlich empfinden, da sie nicht verstehen, wie diese technisch funktioniert. Eine weitere, die aktiv versucht, unerwünschte Datenerfassung zu vermeiden, indem sie beispielsweise Ad-Blocker verwendet, sich bei Cookie-Banner zum Ablehnen entscheidet, Alternativen nutzt wie andere Suchmaschinen oder ihre Einstellungen beim Browsen oder in Betriebssystemen reguliert. Letztlich gibt es noch eine dritte Gruppe, die sich weitgehend indifferent gegenüber Themen wie Datenschutz verhält.
Vorteile der Personalisierung
Trotz der Kritik sehen viele Nutzende auch Vorteile in der personalisierten Werbung:
- Personalisierte Empfehlungen: Personalisierte Inhalte und Empfehlungen können die Erfahrung verbessern, indem sie relevante Informationen und Produkte schneller auffindbar machen.
- Zeitersparnis durch Effizienz: Funktionen wie automatische Logins und personalisierte Startseiten machen das Surfen im Internet angenehmer und effizienter und schneller.
- Frei verfügbare Angebote: Aktuell finanzieren sich viele frei verfügbare Angebote durch personalisierte Werbung. Besonders Wetterdienste & Handyspiele monetarisieren Nutzer*Innendaten, um ihr Geschäftsmodell zu finanzieren.
Differenzierung der Zwecke und Grundrechtsrisiken
In mehreren Workshops und nach diversen Interviews sind wir auf differenzierte Zwecke personalisierter Werbung gekommen, um die spezifischen Grundrechtsrisiken besser zu verstehen.
Dazu gehören:
- Re-Targeting: Zielt darauf ab, Nutzende, die bereits Interesse gezeigt haben, zum Kauf zu bewegen, indem sie auf verschiedenen Websites und Geräten verfolgt werden.
- Profiling-basierte Personalisierung: Erstellt individuelle Interessenprofile durch Beobachtung des Nutzendenverhaltens über einen längeren Zeitraum.
- Kohortenbasierte Personalisierung: Teilt Nutzende in Gruppen ein und ordnet ihnen Interessenprofile zu.
- Kontextbezogene Werbung: Platziert Anzeigen basierend auf dem Inhalt der Seite, ohne personenbezogene Daten zu verarbeiten.
- Leistungsmessung: Misst den Erfolg der Werbung, wobei die Intensität des Eingriffs in die Privatsphäre je nach Messverfahren variiert.
Die Rolle der Forschung und die nächsten Schritte
Das Projekt SiD zielt darauf ab, die Lücke zwischen den Anforderungen der Datenschutzgrundverordnung (DSGVO) und der tatsächlichen Umsetzung zu schließen. Wir möchten besser verstehen, wie Nutzende digitale Dienste wahrnehmen, um Aufklärungs- und Einwilligungsprozesse zu verbessern.
Schlussfolgerung
Personalisierte Werbung bietet sowohl Vorteile als auch Risiken. Sie erzeugt einerseits Arbeitsplätze, nötigt teilweise aber auch Konsumenten in Entscheidungen, die sie ohne personalisierte Werbung womöglich nicht getroffen hätten.
Entscheidend ist die Transparenz und Informiertheit der Datenverarbeitung zu erhöhen, Nutzende über ihre Rechte aufzuklären und datenschutzfreundliche Technologien zu fördern. Als Vorreiter sehen wir bereits Institutionen, die versuchen Datenschutz verständlicher darzustellen wie beispielsweise das “Office of the Privacy Commissioner of Canada” mit Comics, die “Privacy Icons Associations” in der Schweiz mit Datenschutz-Icons oder auch einige Consent Management Anbieter, die vermehrt versuchen Einwilligungen in den Kontext zu verlagern. Kontext bedeutet, Nutzende im Moment der Datenerzeugung über die Datenerzeugung zu informieren: “Sie wollen ein Youtube-Video auf einer Website ansehen? Dafür müssen Sie einwilligen.”
Autor: Tilman Harmeling, 13.03.2025
SiD auf der Jahreskonferenz Plattform Privatheit – Deutungsmuster zu Personalisierung im Internet
Digitale Infrastrukturen prägen zunehmend unseren Alltag, doch sie werfen auch komplexe Fragen auf. Eine der größten Herausforderungen ist die Vereinbarkeit von individueller Selbstbestimmung und dem Schutz kollektiver Grundrechte mit der Verarbeitung personenbezogener Daten. Besonders deutlich wird dies bei Personalisierung und personalisierter Werbung im Internet.
Viele Nutzer*innen sind unsicher darüber, welche Daten genau verarbeitet werden, wofür diese genutzt werden und welche Risiken damit verbunden sind. Datenverarbeiter versuchen zwar, über sogenannte Cookie-Banner aufzuklären, doch diese Informations- und Einwilligungsdialoge werden oft als wenig hilfreich wahrgenommen.
Zu diesem Thema präsentierte Maximilian Lukat erste Erkenntnisse aus dem Projekt “Sicher im Datenverkehr” auf der Jahreskonferenz der Plattform Privatheit, einer interdisziplinären Tagung rund um Forschung zu Datenschutz und Privatheit.
Mangelnde Transparenz als zentrales Problem
Der Vortrag thematisierte unter anderem, dass die Intransparenz der Datenverarbeitung ein zentrales Problem darstellt. Viele Menschen wissen nicht genau, was mit ihren Daten passiert, wenn sie einem Cookie-Banner zustimmen. Dies liegt auch daran, dass die verwendeten Informations- und Einwilligungsdialoge oft komplex und schwer verständlich gestaltet sind. Trotz dieser Unsicherheiten haben die Nutzer*innen jedoch klare Vorstellungen von den möglichen Konsequenzen ihrer Entscheidungen. Diese Vorstellungen sind geprägt von so genannten Deutungsmustern, also typischen Denkweisen, mit denen Menschen ihre soziale Wirklichkeit interpretieren.
Deutungsmuster von alltäglichen Internetnutzer*innen
Unser Forschungsprojekt untersucht diese Deutungsmuster genauer. Ziel ist es, die Beschreibungen der Datenverarbeiter, das Verständnis der Laien und die tatsächlichen Prozesse der Datenverarbeitung miteinander in Beziehung zu setzen.
Ein Deutungsmuster, das in der Analyse besonders hervorsticht und auf der Jahrestagung der Plattform Privatheit vorgestellt wurde, ist, dass viele Menschen datenverarbeitende Organisationen personifizieren. Sie beschreiben die Organisationen als Personen, die Zugang zur Datenverarbeitung und ihren Ergebnissen haben. Diese Personifizierung hilft den Betroffenen vermutlich, die oft abstrakten Prozesse der Datenverarbeitung greifbarer zu machen.
Unsere bisherige Auswertung zeigt jedoch auch, dass die Identität, die die Nutzer*innen von den Organisationen haben, ziemlich lückenhaft und schwammig ist und daher wahrscheinlich wenig Vertrauen ihnen gegenüber besteht. Wenn wir an diesem Punkt ansetzen und die Identität einer solchen datenverarbeitenden Organisation in Form einer Person oder eines kollektiven Akteurs stärker konkretisieren, kann es gelingen, das Bewusstsein für die Personalisierung im Internet zu schärfen.
Ausblick
Analysen wie die unsere sind wichtig, um gesetzliche Informationspflichten künftig besser zu erfüllen und die Gestaltung digitaler Infrastrukturen demokratischer und grundrechtsorientierter zu gestalten. Indem wir besser verstehen, wie Nutzer*innen digitale Dienste wahrnehmen, können wir auch die Aufklärungs- und Einwilligungsprozesse verbessern. Bisher fokussierte sich die Forschung nämlich mehr auf die komplexe Sicht der Expert*innen. Insbesondere der Ansatz, Verbesserungen aus Sicht der Nutzerinnen und Nutzer zu suchen, wurde daher auf der Konferenz positiv aufgenommen. So kann die Nutzung digitaler Infrastrukturen nicht nur transparenter, sondern auch sicherer und fairer gestaltet werden. Dies entspricht ganz dem Motto der Plattform Privatheit: “Forschung für ein selbstbestimmtes Leben in der digitalen Welt”.
Autor: Maximilian Lukat, 19.11.2024
Erhebung von Laienperspektiven mithilfe einer Interviewstudie
Im Projekt „Sicher im Datenverkehr“ (SiD) untersucht das Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG), wie alltägliche Internetnutzer:Innen die Personalisierung von Werbung und Inhalten wahrnehmen und wie ihre Daten dafür verarbeitet werden. Problematisch bei Personalisierung im Internet ist, dass die vorgeschriebene Aufklärung über Datenverarbeitungspraktiken oft durch schwer verständliche Cookie-Banner und Einstellungen unzureichend umgesetzt wird. Daher verfolgt das Projekt das Ziel, die Lücke zwischen den Anforderungen der EU-Datenschutzgrundverordnung (DS-GVO) und der tatsächlichen Umsetzung zu schließen. Während einige Nutzer*Innen personalisierte Inhalte als hilfreich empfinden, sehen andere darin einen Eingriff in die Privatsphäre.
Als Grundlage für unsere Analyse wurden zunächst Einzelinterviews durchgeführt. Die Rekrutierung erfolgte über E-Mail-Verteiler von Projektpartnern, über eine Werbekampagne auf Plattformen des Meta Konzerns, sowie auf den Webseiten des Instituts. Trotz der breit gestreuten Herangehensweise war die Rückmeldung zu Beginn relativ gering. Letztendlich umfasste die Stichprobe der Einzelinterviews insgesamt 18 Teilnehmende, davon neun Frauen und neun Männer. Die meisten Interviewpartner*innen waren Akademiker*innen und kamen überwiegend aus höheren Altersklassen. Trotz alledem wurde in jeder Altersklasse mindestens ein männlicher und eine weibliche Teilnehmer*in interviewt. Die Interviews wurden online durchgeführt.
Gruppendiskussionen zur Validierung der Interviews
Um die Erkenntnisse der Einzelinterviews zu validieren, wurden zwei Gruppendiskussionen Vorort am HIIG organisiert. Die Teilnehmer*innen wurden ebenfalls über E-Mai-Verteiler rekrutiert, ergänzt durch die persönliche Ansprache an öffentlichen Plätzen und dem Verteilen von Handzettel in Nachbarschaftszentren. Die Stichprobe der zwei Gruppendiskussionen umfasste insgesamt 15 Teilnehmer*innen (acht Männer, sieben Frauen), vorwiegend im Alter von 40 Jahren und aufwärts.
Herausforderungen bei der Erhebung
Die Auswahl der Stichproben stieß auf einige Herausforderungen, weshalb es sich hier um eine convenience sample handelt. Es gestaltete sich schwierig, jüngere Teilnehmer*innen für die Teilnahme zu gewinnen, sie scheinen die Themen als weniger relevant einzuordnen, da sie in einer digitalen Welt aufgewachsen sind und sich daher weniger mit den Veränderungen konfrontiert sehen. Es stellte sich unter anderem heraus, dass einige der Teilnehmer*innen mehr Vorwissen hatten, als ursprünglich gewünscht. Dies wurde zwar versucht zu umgehen, indem bei der Rekrutierung das Internetnutzungsverhalten und der Beruf abgefragt wurden. Ganz vermeiden ließ sich dies jedoch nicht.
Des Weiteren wurde zum Teil erwartet, dass bei den Gruppendiskussionen eine Art Aufklärung zu den Themen Datenschutz und Personalisierung stattfindet. Das unterstreicht, dass der Wunsch nach mehr Information in diesen Bereichen existiert und die Relevanz des Projekts verdeutlicht.
Im nächsten Schritt werden erneut Einzelinterviews und Gruppendiskussionen durchgeführt, diesmal jedoch mit Expert*innen aus dem Bereich der Personalisierung im Internet. Anschließend sollen die Alltagserfahrungen der Nutzer:innen und das Expert*innenwissen zusammengeführt werden. Aus der Verschmelzung des Verständnisses der Laien und des Expert*innenwissens soll besser über die Risiken und Vorteile von Personalisierung im Internet aufgeklärt werden. Das Projekt SiD macht damit einen wichtigen Schritt, die Anforderungen der DS-GVO wirksamer umsetzen zu können.
Autorin: Johanna Spiegl, 05.11.2024
Workshop auf der CPDP 2024

Vom 22.-14. Mai 2024 haben Daniel Guagnin, Max von Grafenstein und Volkan Sayman auf der diesjährigen Ausgabe der CPDP-Konferenzen (Computers, Privacy and Data Protection Konferenz) einen Workshop zu den Grundrechtsrisiken im Zusammenhang mit personalisierter Werbung veranstaltet. Es ergab sich eine sehr produktive Diskussion mit den fachkundigen Teilnehmenden über drei Personalisierungs-Frameworks (NetID, Googles Privacy Sandbox und TCF) zu möglichen Auswirkungen auf die Nutzer:innen und den Schutz ihrer Grundrechte.
Im ersten Schritt wurden auf der Grundlage des multidisziplinären Fachwissens der Teilnehmer verschiedene potenzielle (negative und positive) Folgen der verschiedenen Datenströme der Personalisierungs-Frameworks diskutiert. Zusammenfassend ergab sich der Eindruck, dass trotz unterschiedlicher Praktiken der Datenverarbeitung, die Risiken teilweise dieselben bleiben – allen voran Nichtdiskriminierung, Verbraucherschutz, Recht auf Eigentum, Achtung des Privatlebens, Schutz personenbezogener Daten. Die Wahrscheinlichkeit und Schwere der Risiken variiert je nach dem Ort, an dem die personenbezogenen Profile gespeichert werden, und je nach Umfang, Art der Verarbeitung und Grad der Aggregation der personalisierten Profile. Eine detaillierte Analyse wird im weiteren Projektverlauf durchgeführt. Derzeit sammeln wir genauere Informationen über die technischen Bedingungen der Frameworks und führen qualitative Interviews mit Laien durch, um ihre Wahrnehmung von Grundrechtsrisiken der Verarbeitung personenbezogener Daten zu erheben.
Im Großen und Ganzen, war es nicht einfach, die entsprechenden Grundrechtsrisiken abzuleiten. In den laufenden empirischen Arbeiten des Forschungsprojekts „SiD“ („Sicher im Datenverkehr“) zeigt sich bereits, dass es für Lai:innen sehr schwierig ist, Datenströme und mögliche Grundrechtsrisiken zu verstehen. Ergebnisse der Analyse erwarten wir im Herbst. Der Workshop in der vergangenen Woche hat gezeigt, dass eine Diskussion über Grundrechte im Zusammenhang mit der Verarbeitung personenbezogener Daten vor allem dann sinnvoll ist, wenn ein Mindestmaß an Verständnis über die tatsächlichen Datenströme und die Interdependenzen zwischen den Akteur:innen besteht. Von Lai:innen kann kaum erwartet werden, dass sie sich dieses Verständnis selbst verschaffen, und es gibt wenig öffentlich zugängliches Informationsmaterial in leicht verständlicher Sprache, das ihnen hilft, diese Zusammenhänge herzustellen.
Der Workshop hat gezeigt: Grundrechte sind ein sinnvoller Fokus, um die Diskussion über Datenschutz (be-)greifbar zu machen, und eine Bewertung und Abwägung der Risiken der Datenverarbeitung zu ermöglichen. Im Rahmen des Forschungsprojekts werden weitere interaktive und partizipative Untersuchungen mit Expert:innen und Lai:innen zu ihrem Verständnis der grundrechtlichen Risiken der Personalisierung durchgeführt. Das interdisziplinäre Projekt zielt darauf ab, Visualisierungen und Erzählungen von Grundrechtsrisiken zu entwickeln, die leicht verständlich sind und dem Interpretationsrahmen von Lai:innen entsprechen, die sich in der digitalen Welt bewegen.
Den originale Linkedin-Post von Daniel Guagnin auf Englisch finden Sie hier.
Foto: Guy Kindermans