Pläne aufgegeben

Update: Infos zu Kinderporno-Scanner verschwinden von Apple-Website

Uhr
von Rodolphe Koller und Maximilian Schenner und Silja Anders und Übersetzung: Marc Landis, kfi

Nachdem Apple die Veröffentlichung seiner Scan-Funktion auf Kinderpronografie verschoben hatte, scheint der Plan nun völlig ad acta gelegt zu sein. Auf der Website des Konzerns sind die Hinweise zu Scans auf Missbrauchsmaterial verschwunden.

(Source: Alexandr Podvalny/Unplash)
(Source: Alexandr Podvalny/Unplash)

Update vom 16. Dezember 2021: Apple wollte seine iPhones auf Material von Kinderpornografie zu scannen. Das stiess bei Datenschützerinnen und Datenschützern sowie Nutzenden auf Empörung. Wie "Golem.de" nun berichtet, sind sämtliche Hinweise zu solchen Massnahmen von der Hilfe-Website von Apple verschwunden. Das könne bedeuten, dass der Technologieriese seine Pläne zur Geräteüberwachung vorerst komplett ad acta gelegt hat. Die Funktion hätte eigentlich in die neueste iOS-Version eingebaut werden sollen. Mit dem Update erscheint jetzt aber lediglich eine Warnung in Messages, "die Kinder und Eltern darauf hinweist, wenn ein missbräuchliches Bild empfangen oder gesendet werden soll", heisst es bei "Golem" weiter.

Update vom 6. September 2021:

Apple verschiebt Veröffentlichung des Kinderporno-Scanners

Apple hält den umstrittenen Kinderporno-Scanner vorerst zurück. Wie "Watson" berichtet, will der Technologieriese die Kinderschutz-Funktion nicht mit iOS 15 und iPad OS 15 lancieren. Apple möchte sich noch einmal eine zusätzliche Beratungszeit zu dem Thema nehmen. Grund dafür sei das Feedback der Kundschaft, Interessengruppen und Forschenden, wie das Unternehmen mitteilt. Man wolle mehr Anregungen sammeln und Verbesserungen vornehmen, bevor die Funktion freigegeben werde. Laut "Watson" ist nicht bekannt, ob die Überwachungs-Funktion trotz allem in den neuen Betriebssystemen integriert sein werde und schlicht erst zu einem späteren Zeitpunkt per Update aktiviert werde. NSA-Whistleblower Edward Snowden sieht die Schlacht als gewonnen an, aber noch nicht den Krieg. Er rät dazu, sich für den weiteren Kampf für die Privatsphäre bereit zu machen, wie er in einem Tweet schreibt.

Update vom 16. August 2021:

Apple will nur nach bestimmten Bildern suchen

Apple rudert mit den Plänen für sein System zur Erkennung von Missbrauchs-Bildern anscheinend zurück. Nach teils heftiger Kritik von Datenschützern will der Konzern jetzt nur noch nach Bildern suchen, die "von Clearingstellen in mehreren Ländern gekennzeichnet wurden". Dies habe Apple in einem Hintergrundbriefing für Journalisten angekündigt, darunter auch jene von "Reuters". Mit dieser und weiteren Änderungen wolle das Unternehmen Kritiker des geplanten Tools beruhigen.

So soll das Tool ausserdem Alarm schlagen, sobald es auf einem Gerät 30 Bilder erkennt, die den Suchkriterien entsprechen. In diesem Falle werde Apple für eine menschliche Überprüfung und mögliche Meldung an die Behörden benachrichtigt. Bislang hatte der Konzern hierzu keine entsprechende Zahl genannt. Mit etwaigen Verbesserungen des Systems soll diese Zahl im Laufe der Zeit sinken, schreibt "Reuters".

Im Briefing habe Apple eingestanden, die Kommunikation über das neue Tool "schlecht gehandhabt" zu haben. Ob die Kritik von vielen Seiten zu den nun geplanten Veränderungen geführt habe, soll der Konzern nicht kommentiert haben. Das Projekt sei jedoch noch in der Entwicklungsphase, weshalb mit Änderungen zu rechnen sei.

Update vom 10. August 2021:

Apple reagiert auf Datenschutz-Bedenken

Datenschützer äussern schwere Kritik an Apples Vorhaben, die Anwendungen iMessage und iCloud auf sexuelle Inhalte zu überprüfen. Zwar sei der Kinderschutz zweifelsohne ein wichtiges Ziel, zitiert "Heise" etwa das US-amerikanische Center for Democracy & Technology (CDT). Jedoch bestehe die Sorge, dies könne die sichere Übermittlung von Nachrichten über Apples Messaging-Dienst gefährden. Die angetragenen Änderungen könnten "in Wirklichkeit neue Risiken für Kinder und alle Nutzer mit sich bringen und eine deutliche Abkehr von seit langem geltenden Datenschutz- und Sicherheitsprotokollen darstellen", heisst es seitens des CDT weiter. Apple schaffe dadurch eine sogenannte "Backdoor" und lege den Grundstein für eine mögliche Überwachungsinfrastruktur. Durch die Funktion werde die Ende-zu-Ende-Verschlüsselung des Messengers beeinträchtigt, was der Hersteller bestreitet.

Apple bedient sich hinsichtlich der Vorwürfe an einem beliebten Datenschutz-Klischee. Der Datenschutzchef des Konzerns betonte etwa gegenüber der "New York Times", das neue System sei nur dann "schlecht für Dich, wenn Du CSAM-Material sammelst" - in anderen Worten: wer nichts zu verbergen habe, habe auch nichts zu befürchten. Für alle anderen User mache die Implementierung jedoch keinen Unterschied. Apple habe zudem Anfragen von Regierungen abgelehnt, die das Tool zur Erkennung anderen unerwünschten Materials einsetzen wollen, schreibt "Heise". Auch fände bei Erkennung von CSAM-Material keine automatische Übermittlung an Strafverfolgungsbehörden statt, das Material werde zuerst von Apple gesichtet.

Originalmeldung vom 09. August 2021:

So will Apple Kinderpornografie bekämpfen

Apple will verschiedene Technologien zur Bekämpfung kinderpornografischer Inhalte auf seinen Plattformen einführen. Die nächsten Versionen der Apple-Betriebssysteme iOS 15, iPadOS 15, watchOS 8 und macOS Monterey sollen über algorithmische und maschinelle Lernwerkzeuge verfügen, die es dem Unternehmen ermöglichen, zu erkennen, ob ein Nutzer von iCloud Photos pornografische Bilder auf seinen Geräten gespeichert hat. Auch will Apple Kinder warnen, wenn sie eine Nachricht mit sexuell eindeutigem Inhalt erhalten oder im Begriff sind, eine solche zu versenden.

Mit diesen Entwicklungen will Apple die Kinderpornografie bekämpfen und gleichzeitig die Privatsphäre der Nutzer respektieren. Das Unternehmen versucht damit, seine doppelte Positionierung zu bewahren: "Wir tun Gutes" und "Wir kümmern uns um Ihre Privatsphäre".

Vier Schritte zur Erkennung von Kinderpornografie

Das für iCloud Photos entwickelte System soll es dem Unternehmen ermöglichen, festzustellen, ob ein Nutzer pornografische Bilder auf seinem Gerät hat, die vom US National Center for Missing and Abused Children (NCMEC) identifiziert worden sind. Der Mechanismus besteht aus vier Schritten:

  1. Bevor ein Foto an iCloud übertragen wird, vergleicht und identifiziert ein lokaler Prozess auf dem Gerät, ob der Hash des Fotos mit einem der Hashes bekannter NCMEC-Fotos übereinstimmt.

  2. Wird eine Übereinstimmung gefunden, erstellt das Gerät einen kryptografischen Beleg, der das Ergebnis der Übereinstimmung und andere verschlüsselte Informationen über das Foto in verschlüsselter Form enthält. Dieser wird gebündelt mit dem Foto an iCloud übertragen.

  3. In der iCloud wird eine weitere Technologie dieses Bundle detaillierter analysieren, ohne das Foto zu enthüllen. Ziel ist es, Falschmeldungen so weit wie möglich zu reduzieren. Wenn die Übereinstimmung einen bestimmten Schwellenwert erreicht, erlaubt das System Apple, den Inhalt des kryptografischen Belegs und der Bilder zu lesen.

  4. Die Bilder werden dann von Apple-Mitarbeitenden manuell überprüft, um festzustellen, ob es eine Übereinstimmung gibt. In diesem Fall wird der User Account gesperrt und ein Bericht an das NCMEC gesendet. User die glauben, dass ein Fehler vorliegt, können die Reaktivierung ihres Kontos beantragen.

Warnung vor dem Empfang oder Versand expliziter Fotos

Ein weiterer Mechanismus, den Apple demnächst einführen will, betrifft die Anwendung "Nachrichten". Das System, das auf Familienkonten ausgerichtet ist, scannt und identifiziert sexuell eindeutige Fotodateien, die an Nachrichten angehängt sind. Wenn ein Kind ein solches Foto erhält, macht das System es unscharf und warnt das Kind, das dann entscheiden kann, ob es das Bild wirklich sehen will. Es ist auch möglich, das Kind zu warnen, dass seine Eltern informiert werden, wenn es sich entscheidet, das Foto zu sehen.

In diesen vier Schritten will Apple Kinder vor sexuellen Inhalten warnen. (Source: Apple)

Umgekehrt warnt das System auch Kinder, die im Begriff sind, ein sexuell eindeutiges Foto zu versenden, mit der Option, die Eltern zu benachrichtigen, wenn sie es versenden.

Schutz vs. Privatsphäre

Die Technologien - Kryptografie, lokales maschinelles Lernen -, die Apple anwendet, um den Schutz von Kindern und den Schutz der Privatsphäre der Nutzenden in Einklang zu bringen, überzeugen Fachleute und Verfechter der Freiheit nicht. Sie verweisen auf die Undurchsichtigkeit des Systems, das Risiko falsch positiver Ergebnisse und einen Präzedenzfall für weniger lobenswerte Anwendungen. "Aber selbst, wenn Sie glauben, dass Apple den Missbrauch dieser Tools verhindern wird, gibt es noch viel zu befürchten. Diese Systeme stützen sich auf eine Datenbank mit "problematischen Medien-Hashes", auf die man als Verbraucher keinen Zugriff hat", kommentierte Matthew Green, Professor für Kryptographie an der Johns Hopkins University, in einem Tweet.

Und die Electronic Frontier Foundation ist nicht weniger zimperlich: "Wir haben es schon einmal gesagt und wir werden es wieder sagen: Es ist unmöglich, ein clientseitiges Analysesystem zu entwickeln, das nur für sexuell eindeutige Bilder verwendet werden kann, die von Kindern gesendet oder empfangen werden. Infolgedessen wird selbst ein gut gemeinter Versuch, ein solches System zu entwickeln, die Hauptversprechen der E-Mail-Verschlüsselung selbst brechen und die Tür für weiteren Missbrauch öffnen.

Übrigens, Forscher der ETH Lausanne wollen ebenso Machine Learning und Datenschutz zusammenbringen, wie, lesen Sie hier.

Webcode
DPF8_224815