KI wieder weniger faul

Update: OpenAI bringt ChatGPT wieder in die Gänge

Uhr
von Maximilian Schenner und Yannick Züllig und tme, msc

Die neuste Bezahlversion von ChatGPT soll wieder weniger denkfaul sein. Entwickler OpenAI kann das Verhalten jedoch nicht ganz abstellen.

(Source: Girl with red hat / unsplash.com)
(Source: Girl with red hat / unsplash.com)

Update vom 29.1.2024: OpenAI hat neue Versionen seines KI-Bots ChatGPT vorgestellt. Neben einer Preisreduktion und einer verbesserten API soll ChatGPT auch wieder weniger faul sein, wie "Golem" berichtet. Die Ursache für das Verhalten sei jedoch weiter ungewiss. 

In den Patchnotes von OpenAI heisst es: "Das Modell erledigt Aufgaben wie die Codegenerierung gründlicher als das vorherige Vorschaumodell und soll Fälle von Faulheit reduzieren, in denen das Modell eine Aufgabe nicht erledigt." Ob und wann OpenAI die Faulheit des Chatbots komplett beenden kann, ist also weiter unklar.

Originalmeldung von 13.12.2023:

ChatGPT wird faul und keiner weiss, warum

Wer dieser Tage ChatGPT nach Rat fragt, bekommt womöglich nicht die gewünschte Antwort. Stattdessen schlägt der Chatbot immer häufiger vor, selbst nach der Antwort zu suchen, wie zahlreiche Nutzerinnen und Nutzer beklagen. Konkret geht es um die Bezahlversion GPT-4, die aktuelle Form des Sprachmodells, wie "Pressetext" schreibt. Oft handle es sich dabei um Aufgaben mit zahlreichen wiederkehrenden Abläufen oder aber die Zusammenfassung grosser Datenmengen oder Texte.

Etliche User hätten sich im Forum von OpenAI, auf X oder Reddit über die Limitationen des Chatbots beschwert. Den Entwicklern selbst ist jedoch noch nicht klar, warum GPT-4 unbefriedigende Antworten gibt, wie aus einem X-Post hervorgeht. Man habe seit dem 11. November keine Updates durchgeführt - die gestiegene "Faulheit" sei nicht beabsichtigt. OpenAI arbeite an der Behebung.

Die Idee sei nicht, dass sich das Modell seitdem irgendwie selbst verändert habe, konkretisiert das Unternehmen. "Es ist nur so, dass die Unterschiede im Verhalten des Modells subtil sein können – nur eine Teilmenge der Eingabeaufforderungen kann beeinträchtigt sein, und es kann lange dauern, bis Kunden und Mitarbeiter diese Muster bemerken und beheben."

User spekulieren indes, woran es tatsächlich liegen könnte, dass GPT-4 ihre Fragen einfach nicht beantworten will. So ist laut "Pressetext" etwa von Limitierungen die Rede, die OpenAI absichtlich implementiert habe, um eine Überlastung zu verhindern. Andere Nutzerinnen und Nutzer vermuten, dass die Kosten für den Betrieb des Sprachmodells aus dem Ruder gelaufen seien und OpenAI daher die Rechenleistung begrenze.

Übrigens: Eine Forschungsgruppe - an der auch die ETH Zürich beteiligt war - hat gezeigt, wie man ChatGPT überlisten kann. Mit einer sogenannten Divergence-Attacke kann man den KI-Chatbot dazu bringen, seine Trainingsdaten herauszugeben. Der Trick wirkt erstaunlich simpel.

Webcode
3Svhbjf7