"Inakzeptabler Fehler"

Facebook-KI verwechselt schwarze Menschen mit Affen

Uhr
von Yannick Chavanne und Übersetzung von Nadja Baumgartner

Facebook gibt ein weiteres Beispiel dafür ab, wie KI-Algorithmen zu Diskriminierung führen können. Nach dem Anschauen eines Clips mit schwarzen Männern fragte das Empfehlungstool der Plattform, ob die Nutzenden "weiterhin Videos über Primaten sehen möchten".

(Source: Brett Jordan / Unsplash)
(Source: Brett Jordan / Unsplash)

Gesichtserkennungs-Algorithmen sind noch lange nicht perfekt, insbesondere wenn es um ethnische Kategorien geht. Das zeigt die US-amerikanische Social-Media-Plattform Facebook mit ihrem Empfehlungstool. In einem Video über schwarze Männer schlug das Tool im Anschluss Videos zu Affen und Primaten vor. Der Inhalt hatte allerdings keinerlei Bezug zu Affen, wie die "New York Times" berichtet.

Auf Nachfrage US-amerikanischer Medien räumt ein Sprecher von Facebook ein, die künstliche Intelligenz (KI) "müsse noch einige Fortschritte machen". Facebook hat sich für diesen "inakzeptablen Fehler" entschuldigt. Man arbeite daran, das Problem zu beheben.

Nicht nur Facebook ist davon betroffen. Immer wieder wird auf den Rassismus und Sexismus von KIs hingewiesen. Ein ETH-Student hat beispielsweise einen Twitter-Algorithmus entdeckt, der junge, hellhäutige Gesichter mit stereotypisch femininen Gesichtszügen anderen Gesichtern vorzieht.

Um Algorithmen zu entwickeln, die unabhängig von ethnischen oder geschlechtsspezifischen Merkmalen wirksam sind, müssen sie auf einer Datenbank mit repräsentativen Bildern trainiert werden. Damit befassen sich die Forscher des Idiap-Instituts in Martigny. Hier können Sie mehr darüber lesen.

Webcode
DPF8_229175