OpenAI kündigt API für ChatGPT an
OpenAI hat eine Programmierschnittstelle für ChatGPT angekündigt. Die API soll Entwicklerinnen und Entwicklern die Möglichkeit bieten, den Chatbot in ihre eigenen Anwendungen zu integrieren.

OpenAI stellt eine Programmierschnittstelle (API) für ChatGPT zur Verfügung. Auf diese Weise sollen Entwicklerinnen und Entwickler den Chatbot in ihre eigenen Programme und Produkte integrieren können, wie OpenAI mitteilt. Auch eine API für das Sprache-zu-Text-Modell Whisper von OpenAI stehe nun bereit.
Über die Schnittstelle erhalte man Zugang zu einer aktualisierten Version des GPT-Modells mit der Bezeichnung gpt-3.5-turbo. 1000 Token kosten 0,002 US-Dollar - das sei zehn Mal günstiger als die Nutzung der bestehenden GPT-3.5-Modelle, schreibt OpenAI in einem Blogbeitrag.
OpenAI kündigt ausserdem dedizierte Instanzen in Azure für Entwickler an, die ihre API-Anfragen nicht auf einer gemeinsam genutzten Infrastruktur ausführen möchten. Entwickler zahlen dann nicht mehr pro Token, sondern für den Zeitraum, in dem ein Teil der Infrastruktur für ihre Anfragen reserviert ist. Dadurch hätten die Entwickler und Entwicklerinnen eine bessere Kontrolle über die Auslastung des Systems und könnten die verfügbare Geschwindigkeit optimieren. Laut OpenAI soll das Modell für User, die mehr als 450 Millionen Wörter/Tokens pro Tag verwenden, wirtschaftlich vorteilhaft sein.

Die neue Printausgabe des "IT-Markt" ist da

Hochkarätige Cybersecurity-Trainings im ATC von BOLL

"Firewall und Netzwerk in einer Lösung zu verwalten, hat klare Vorteile"

Individueller Schutz vor Cyberangriffen – wie Unternehmen resilienter werden

Fünf Fragen, die sich IT-Leiter vor dem Umstieg auf ein Managed SOC stellen sollten

TI&M beruft Green-CEO in den Verwaltungsrat

Aufwachsen als Strahlenschildkröte

Adidas meldet Datenleck nach Angriff auf Dienstleister

KI-Ready Datacenter: Dell & DataStore schliessen die Infrastrukturlücke
