Wenn die KI halluziniert
Generative KI ist ein wertvoller Helfer im Arbeitsalltag, kann aber auch falsch liegen und sogar Fakten erfinden. Was sind die Ursachen dafür und wie können Unternehmen das Risiko von ungenauen, falschen und vorurteilsbehafteten Ergebnissen reduzieren?

Generative KI ist äusserst vielseitig und kann etwa Texte, Bilder und Code erzeugen oder bestimmte Informationen aus einer Vielzahl von Datenquellen herausfiltern. Allerdings dürfen Mitarbeitende den Ergebnissen nicht blind vertrauen, denn diese können durchaus falsch oder irreführend sein. Schliesslich hängen die hinter GenAI-Anwendungen stehenden KI-Modelle von der Qualität und der Vollständigkeit ihrer Trainingsdaten ab, und selbst die grossen Sprachmodelle von OpenAI und Meta besitzen kein vollständiges Wissen der Welt. Werden sie nach Themen befragt, zu denen sie nur wenige oder keine Trainingsdaten hatten, liefern sie ungenaue oder falsche Informationen.
Solche von der KI erfundenen Aussagen, Halluzinationen genannt, sind oft nur schwer zu erkennen, da sie gut formuliert sind und meist plausibel klingen. Zudem agieren die grossen Sprachmodelle als Blackbox, sodass nur schwer nachzuvollziehen ist, wie sie zu ihren Aussagen kommen und wann falsche Informationen ausgegeben werden. Um das Risiko zu reduzieren, können Unternehmen zu kleineren, domänenspezifischen Modellen greifen. Diese eignen sich zwar nicht für ein so breites Einsatzspektrum, verfügen dafür aber über detailliertes Wissen in dem Bereich, für den sie trainiert wurden.
Wissensbasis mit eigenen Daten verbessern
Unabhängig davon, ob ein domänenspezifisches oder grosses Sprachmodell eingesetzt wird, kann ein Finetuning mit eigenen Daten die Genauigkeit der Ausgaben noch weiter verbessern und die Gefahr von Halluzinationen verringern. Alternativ zum Finetuning können Unternehmen eigene Wissensquellen via Retrieval-Augmented Generation (RAG) einbinden: Das Wissen zur Beantwortung von Anfragen muss dann nicht mehr aus dem Modell selbst kommen, sondern wird aus internen Datenbanken oder von Fileshares mit Dokumenten bezogen. RAG ist weniger aufwendig als ein Finetuning und bietet die Möglichkeit, die Ausgaben mit Quellenangaben zu versehen, sodass Mitarbeitende sie überprüfen können.
Darüber hinaus sollten Unternehmen sogenannte Guardrails für ihre GenAI-Anwendungen implementieren. Dabei handelt es sich um Kontrollmechanismen für die Eingaben und Ausgaben, die unter anderem verhindern, dass die KI themenfremde Anfragen beantwortet und dabei halluziniert. Ebenso verhindern Guardrails die Beantwortung bekannter Jailbreaking-Prompts und die Ausgabe unangemessener Inhalte.
Nur hochwertige Trainingsdaten verwenden
Die Daten für ein Training oder Finetuning müssen Unternehmen sorgfältig auswählen, um sicherzustellen, dass das KI-Modell nur von ausgewogenen und hochwertigen Daten lernt. Ohne diese kann es keine korrekten Ausgaben generieren und liefert unter Umständen auch unfaire oder diskriminierende Ergebnisse. Dafür reicht es schon, dass das Trainingsmaterial veraltet ist und nicht mehr aktuellen gesellschaftlichen Standards entspricht oder dass redundante Daten für eine zu starke Gewichtung bestimmter Informationen sorgen.
Sorgfältig umgesetzt, liefert GenAI sehr gute Resultate. Dennoch müssen Mitarbeitende diese Ergebnisse überprüfen und gegebenenfalls anpassen, schliesslich ist KI nur ein Werkzeug, das sie im Arbeitsalltag unterstützt. Die Verantwortung tragen sie weiterhin selbst – ein KI-Modell kann das nicht.

HPE präsentiert sich mit neuem Markenauftritt

Swissbit vertreibt seine Produkte über Disti Sysob

Maschinelles Lernen vereinfacht industrielle Laserprozesse

Die Spring Party bringt die Westschweizer IT-Branche zusammen

Möge der Saft wieder mit dir sein

ICT-Berufsbildung reicht revidierten Bildungsplan für ICT-Fachmann/-frau EFZ ein

Tiun und Taurus sind die besten Schweizer Fintech-Start-ups

Roboter montieren Bewehrungseisen

KI treibt globale Cloud-Ausgaben in die Höhe
