Ray-Ban Meta wirft Datenschutzfragen auf

Metas KI-Brille leitet intime Videos nach Kenia

Uhr
von Joël Orizet und NetzKI Bot und cka

Was die KI-Brille von Meta aufnimmt, kann auf den Bildschirmen von Mitarbeitenden eines Meta-Subunternehmers in Kenia landen. Diese müssen mitunter private und intime Videoclips sichten, um die KI zu trainieren. Die Enthüllungen werfen gravierende Fragen zu Datenschutz und Transparenz auf und zeigen eine deutliche Diskrepanz zwischen Werbeversprechen und Realität.

Was die "AI Glasses" von Meta und Ray-Ban aufzeichnen, kann bei Clickworkern in Kenia landen. (Source: zVg)
Was die "AI Glasses" von Meta und Ray-Ban aufzeichnen, kann bei Clickworkern in Kenia landen. (Source: zVg)

Meta vermarktet seine Ray-Ban-Datenbrille als stylischen Allround-Helfer, der mithilfe von Kamera, Mikrofon und KI-Assistent den Alltag erleichtern soll. Doch zumindest ein Teil von dem, was diese Brillen aufzeichnen, landet auf den Bildschirmen von Angestellten eines Meta-Subunternehmens in Kenia. Wie eine Recherche der schwedischen Tageszeitungen "Göteborgs-Posten" und "Svenska Dagbladet" zeigt, sichten diese Mitarbeitenden auch äusserst private Inhalte.

Über dreissig Angestellte des Meta-Dienstleisters Sama berichteten den Journalistinnen und Journalisten anonym von ihrer Arbeit. In bis zu 10-Stunden-Schichten trainieren sie als sogenannte Daten-Annotatoren die KI. Dabei sichten sie aufgezeichnete Inhalte und versehen sie mit Beschreibungen, Kategorien oder Warnhinweisen. Solche menschlich markierten Daten liefern generativen KI-Systemen die Grundlage, um Inhalte zu erkennen, einzuordnen und darauf zu reagieren.

Die Schilderungen der Angestellten zeichnen ein beunruhigendes Bild. "Wir sehen alles - von Wohnzimmern bis zu nackten Körpern", berichtet eine Person aus dem Team. Andere beschreiben Videos, in denen Menschen die Toilette benutzen oder sich ausziehen - offenbar ohne zu wissen, dass die Brille aufzeichnet. Sie sehen demnach auch sexuelle Handlungen, versehentlich gefilmte Bankkarten oder Personen, die beim Tragen der Brille Pornografie konsumieren. 

Auf die Frage, ob man in das Privatleben anderer blicke, antwortete eine Arbeitskraft: "Man versteht, dass man das Privatleben von jemandem betrachtet, aber gleichzeitig wird von einem erwartet, dass man einfach seine Arbeit macht. Wenn man anfängt, Fragen zu stellen, ist man weg."

Falsche Versprechen und verräterischer Datenverkehr

Das Rechercheteam konfrontierte das Verkaufspersonal in zehn Optikergeschäften in Schweden. Viele Angestellte gaben an, die User hätten die volle Kontrolle über ihre Daten und nichts werde ohne Zustimmung mit Meta geteilt. 

Eigene Tests der Journalisten und Journalistinnen zeigten jedoch ein anderes Bild. Die KI-Funktionen erfordern eine aktive Internetverbindung. Eine Analyse des Netzwerkverkehrs belegte eine regelmässige Kommunikation mit Meta-Servern in Europa. Eine rein lokale Verarbeitung der Daten ist demnach nicht möglich.

Die befragten Optikerketten wie Synsam und Synoptik verwiesen in schriftlichen Stellungnahmen darauf, dass die Verantwortung für die Einhaltung der Gesetze letztlich bei den Trägerinnen und Trägern der Brille liege.

Zwingende Zustimmung zur menschlichen Kontrolle

Tatsächlich geben Metas Nutzungsbedingungen dem Konzern weitreichende Rechte. Um die Brille überhaupt verwenden zu können, müssen User einwilligen, dass ihre Interaktionen mit der KI "manuell (menschlich)" überprüft werden können. 

Diese Datenverarbeitung erfolgt laut Nutzungsbedingungen automatisch und lässt sich nicht abschalten. Eine Wahlmöglichkeit, dieser menschlichen Überprüfung zu widersprechen, ist nicht vorgesehen.

Fachleute für Datenschutz kritisieren diese Praxis scharf. Kleanthi Sardeli von der Wiener Datenschutzorganisation NOYB erklärt gegenüber den schwedischen Zeitungen: "Wenn dies in Europa geschieht, fehlen sowohl die Transparenz als auch die Rechtsgrundlage für die Verarbeitung." 

Ihre Organisation ist der Ansicht, dass für die Datennutzung zum KI-Training eine ausdrückliche Zustimmung erforderlich ist. Wie netzpolitik.org berichtet, droht bei einer weiten Verbreitung der Brillen die kommerzielle Totalerfassung privater und öffentlicher Räume; bald könnte Meta das Gerät zusätzlich mit Gesichtserkennung aufrüsten.

Der Fall zeigt zudem ein grundlegendes Dilemma vieler KI-Produkte: Damit solche Systeme Bilder, Sprache oder Situationen zuverlässig erkennen, benötigen sie grosse Mengen realer Daten - und häufig auch menschliche Arbeitskräfte, die diese Daten sichten und einordnen. Gerade bei Geräten, die permanent Bilder aus dem Alltag aufzeichnen, führt dieses Prinzip schnell zu heiklen Fragen des Persönlichkeitsschutzes.

Metas Schweigen und die EU-DSGVO

Meta und der Subunternehmer Sama liessen konkrete Fragen der Journalistinnen und Journalisten unbeantwortet. Eine Sprecherin von Meta verwies lediglich allgemein auf die Nutzungsbedingungen.

Für die Übermittlung personenbezogener Daten aus der EU in ein Drittland wie Kenia setzt die Datenschutz-Grundverordnung (DSGVO) jedoch hohe Hürden. Derzeit existiert kein Angemessenheitsbeschluss der EU, der Kenia ein mit Europa vergleichbares Datenschutzniveau bescheinigt. Petra Wierup, Juristin bei der schwedischen Datenschutzbehörde, stellt klar: Als Datenverantwortlicher trägt Meta die Verantwortung. Für eine Datenübermittlung in ein Drittland müsse sichergestellt sein, "dass die Daten dort einen weiterhin starken und gleichwertigen Schutz erhalten.“

 

Auch OpenAI setzte übrigens für das Training der KI-Modelle hinter ChatGPT auf den Subunternehmer Sama. Die Firma beschäftigt Mitarbeitende in Kenia, Uganda und Indien, die Texte, Bilder und Videos nach höchst problematischen Inhalten durchsuchen und diese kennzeichnen sollen. Zu den Kunden des Unternehmens zählen auch Meta, Google und Microsoft. Mehr dazu lesen Sie hier

Webcode
oEcQx2Ab