Hintergrund

Wenn die KI halluziniert

Uhr | Updated
von Christian Scharrer, Enterprise Architect und CTO Ambassador, Dell Technologies Deutschland

Generative KI ist ein wertvoller Helfer im Arbeitsalltag, kann aber auch falsch liegen und sogar Fakten erfinden. Was sind die Ursachen dafür und wie können Unternehmen das Risiko von ungenauen, falschen und vorurteilsbehafteten Ergebnissen ­reduzieren?

Christian Scharrer, Enterprise Architect und CTO Ambassador, Dell Technologies Deutschland. (Source: zVg)
Christian Scharrer, Enterprise Architect und CTO Ambassador, Dell Technologies Deutschland. (Source: zVg)

Generative KI ist äusserst vielseitig und kann etwa Texte, Bilder und Code erzeugen oder bestimmte Informationen aus einer Vielzahl von Datenquellen herausfiltern. Allerdings dürfen Mitarbeitende den Ergebnissen nicht blind vertrauen, denn diese können durchaus falsch oder irreführend sein. Schliesslich hängen die hinter GenAI-Anwendungen stehenden KI-Modelle von der Qualität und der Vollständigkeit ihrer Trainingsdaten ab, und selbst die grossen Sprachmodelle von OpenAI und Meta besitzen kein vollständiges Wissen der Welt. Werden sie nach Themen befragt, zu denen sie nur wenige oder keine Trainingsdaten hatten, liefern sie ungenaue oder falsche Informationen.

Solche von der KI erfundenen Aussagen, Halluzinationen genannt, sind oft nur schwer zu erkennen, da sie gut formuliert sind und meist plausibel klingen. Zudem agieren die grossen Sprachmodelle als Blackbox, sodass nur schwer nachzuvollziehen ist, wie sie zu ihren Aussagen kommen und wann falsche Informationen ausgegeben werden. Um das Risiko zu reduzieren, können Unternehmen zu kleineren, domänenspezifischen Modellen greifen. Diese eignen sich zwar nicht für ein so breites Einsatzspektrum, verfügen dafür aber über detailliertes Wissen in dem Bereich, für den sie trainiert wurden.

Wissensbasis mit eigenen Daten verbessern

Unabhängig davon, ob ein domänenspezifisches oder gros­ses Sprachmodell eingesetzt wird, kann ein Finetuning mit eigenen Daten die Genauigkeit der Ausgaben noch weiter verbessern und die Gefahr von Halluzinationen verringern. Alternativ zum Finetuning können Unternehmen eigene Wissensquellen via Retrieval-Augmented Generation (RAG) einbinden: Das Wissen zur Beantwortung von Anfragen muss dann nicht mehr aus dem Modell selbst kommen, sondern wird aus internen Datenbanken oder von Fileshares mit Dokumenten bezogen. RAG ist weniger aufwendig als ein Finetuning und bietet die Möglichkeit, die Ausgaben mit Quellenangaben zu versehen, sodass Mitarbeitende sie überprüfen können.

Darüber hinaus sollten Unternehmen sogenannte ­Guardrails für ihre GenAI-Anwendungen implementieren. Dabei handelt es sich um Kontrollmechanismen für die Eingaben und Ausgaben, die unter anderem verhindern, dass die KI themenfremde Anfragen beantwortet und dabei halluziniert. Ebenso verhindern Guardrails die Beantwortung bekannter Jailbreaking-Prompts und die Ausgabe unangemessener Inhalte.

Nur hochwertige Trainingsdaten verwenden

Die Daten für ein Training oder Finetuning müssen Unternehmen sorgfältig auswählen, um sicherzustellen, dass das KI-Modell nur von ausgewogenen und hochwertigen Daten lernt. Ohne diese kann es keine korrekten Ausgaben generieren und liefert unter Umständen auch unfaire oder diskriminierende Ergebnisse. Dafür reicht es schon, dass das Trainingsmaterial veraltet ist und nicht mehr aktuellen gesellschaftlichen Standards entspricht oder dass redundante Daten für eine zu starke Gewichtung bestimmter Informationen sorgen.

Sorgfältig umgesetzt, liefert GenAI sehr gute Resultate. Dennoch müssen Mitarbeitende diese Ergebnisse überprüfen und gegebenenfalls anpassen, schliesslich ist KI nur ein Werkzeug, das sie im Arbeitsalltag unterstützt. Die Verantwortung tragen sie weiterhin selbst – ein KI-Modell kann das nicht.

Webcode
W6vu7Uzc