ChatGPT kapituliert bei Programmierfragen
US-Forschende haben ChatGPTs Fähigkeit, Programmierfragen zu beantworten und Codefragmente zu liefern, getestet. Der KI-Chatbot liefert wenig beeindruckende Ergebnisse.

Der generative KI-Chatbot ChatGPT von OpenAI ist gemäss Forschenden der Purdue University nur bedingt als Antwortgeber für Programmierfragen geeignet. Bei der Erstellung von Code-Fragmenten für Software-Vorhaben lieferte das Tool in Tests verhältnismässig viele falsche Ergebnisse – insbesondere bei Stack Overflow.
Die Ergebnisse der Testreihe seien ernüchternd, denn der Chatbot hat mit 48 Prozent noch nicht einmal die Hälfte der gestellten Fragen korrekt beantwortet. Zudem fielen 78 Prozent der Antworten im Vergleich zu menschlichen Antworten auf verschiedenen Ebenen inkonsistent aus – sie waren aber formaler, analytischer und die Tonalität weniger negativ. Nur bei knapp jedem fünften Ergebnis (22 Prozent) gab es Übereinstimmungen mit den von Menschen gegebenen Antworten.
Einen Pluspunkt kassiert ChatGPT allerdings in Sachen Verständlichkeit, wie es heisst. Der Bot sei zu 65 Prozent verständlich und die Antworten gut lesbar. Ein Problem bleibe aber nach wie vor die Fülle an gelieferten irrelevanten Infos.
Dieser Artikel ist zuerst bei "Werbewoche" erschienen.

Peoplefone feiert Jubiläum und Partner an der ETH

T&N ernennt künftige Geschäftsleiterin

Bildungssektor wehrt sich erfolgreich gegen Ransomware

So will AWS den Schweizer KI-Markt mitgestalten

Ericsson befördert Vertriebsleiter zum Country Manager

Green gründet Niederlassung in Deutschland

NorthC baut Schweizer Netz an Rechenzentren aus

Update: Rivr-Roboter rollen wieder für Just Eat

Update: Nationale Adressdatenbank steht vor Schlussabstimmung
