Facebook-KI verwechselt schwarze Menschen mit Affen
Facebook gibt ein weiteres Beispiel dafür ab, wie KI-Algorithmen zu Diskriminierung führen können. Nach dem Anschauen eines Clips mit schwarzen Männern fragte das Empfehlungstool der Plattform, ob die Nutzenden "weiterhin Videos über Primaten sehen möchten".
Gesichtserkennungs-Algorithmen sind noch lange nicht perfekt, insbesondere wenn es um ethnische Kategorien geht. Das zeigt die US-amerikanische Social-Media-Plattform Facebook mit ihrem Empfehlungstool. In einem Video über schwarze Männer schlug das Tool im Anschluss Videos zu Affen und Primaten vor. Der Inhalt hatte allerdings keinerlei Bezug zu Affen, wie die "New York Times" berichtet.
Auf Nachfrage US-amerikanischer Medien räumt ein Sprecher von Facebook ein, die künstliche Intelligenz (KI) "müsse noch einige Fortschritte machen". Facebook hat sich für diesen "inakzeptablen Fehler" entschuldigt. Man arbeite daran, das Problem zu beheben.
Nicht nur Facebook ist davon betroffen. Immer wieder wird auf den Rassismus und Sexismus von KIs hingewiesen. Ein ETH-Student hat beispielsweise einen Twitter-Algorithmus entdeckt, der junge, hellhäutige Gesichter mit stereotypisch femininen Gesichtszügen anderen Gesichtern vorzieht.
Um Algorithmen zu entwickeln, die unabhängig von ethnischen oder geschlechtsspezifischen Merkmalen wirksam sind, müssen sie auf einer Datenbank mit repräsentativen Bildern trainiert werden. Damit befassen sich die Forscher des Idiap-Instituts in Martigny. Hier können Sie mehr darüber lesen.
Westcon-Comstor legt DACH-Vertrieb zusammen
Sharenting im Zeitalter der KI
Protonmail-Daten überführen US-Demonstranten
Update: Anthropic zieht gegen US-Regierung vor Gericht
Digitalswitzerland lanciert KI-Leitfaden für Führungskräfte
Kanton St. Gallen will verstärkt auf Open Source setzen
So verschärft KI das Problem von Kinderfotos im Netz
Angriffe mit Banking-Trojanern nehmen stark zu
LED-Screens entwickeln sich von Premiumlösungen zu strategischen Systemen