Google-KI Gemini erzeugt keine Bilder von Menschen mehr
Google lässt seinen Bildgenerator Gemini vorerst keine Bilder von Personen mehr erzeugen. Dies, nachdem das KI-Tool die Darstellung von ethnischer Diversität ins Absurde trieb.
Google hat die Funktionalität seines KI-Assistenten Gemini eingeschränkt. Das Tool kann keine Bilder von Menschen mehr erzeugen - zumindest vorerst. Der Google-Konzern überarbeitet das Feature und räumt ein: In einigen Fällen habe das Tool "peinliche", "falsche" und sogar "beleidigende" Bilder erzeugt, heisst es in einem Blogbeitrag von Google.
Tatsächlich zog Googles Bildgenerator teils massive Kritik auf sich. Auf der Kurznachrichten-Plattform X (Ex-Twitter) sorgten von Gemini generierte historisch anmutende Motive für Aufsehen. So soll die Google-KI beispielsweise auf den Prompt "1943 German Soldier" unter anderem eine asiatische Frau und einen schwarzen Mann in einer Art Nazi-Uniform gezeigt haben.
Googles newest AI program called Google Gemini shows a black person as a WW2 NAZI. This is a full on racist slur on all black people from around the world. The picture not only shows a black man as a NAZI, it shows him in an SS uniform. What's next for Google, black people… pic.twitter.com/j5yTo4Ipcd
— Mark Yandle (@MarkYandle) February 24, 2024
Google erklärt sich das Problem im Blogbeitrag folgendermassen: Erstens habe man beim Tuning des KI-Modells nicht beachtet, dass die Darstellung von Diversität in bestimmten Fällen fehl am Platz ist. Zweitens sei das Modell mit der Zeit vorsichtiger geworden als ursprünglich beabsichtigt - deswegen habe sich Gemini mitunter geweigert, bestimmte Prompts vollständig zu verarbeiten. Zudem habe das Modell teilweise harmlose Aufforderungen fälschlicherweise als sensibel interpretiert.
"Bald" will Google eine überarbeitete Version des Bildgenerators veröffentlichen. Der Suchmaschinen-Konzern gibt im Blogbeitrag allerdings zu bedenken: Gemini sei nicht immer zuverlässig - vor allem bezüglich der Generierung von Bildern oder Texten zu aktuellen Nachrichten und brisanten Themen. "Es gibt Fälle, in denen KI die Dinge einfach falsch versteht", schreibt Google und fügt hinzu: Man arbeite daran, dies zu verbessern.