GPTs von Dritten

Das ist eine der grössten Gefahren bei KI-Chatbots

Uhr
von Daniel Schurter (Watson), msc

Eigene Chatbots, die auf ChatGPT basieren, sind der letzte Schrei. Doch bei den von Dritten erstellten "GPTs" lauern beträchtliche Risiken, wie ein kalifornischer IT-Sicherheitsexperte warnt.

(Source: ©sompong_tom - stock.adobe.com)
(Source: ©sompong_tom - stock.adobe.com)

Eine nicht repräsentative Umfrage im Bekanntenkreis zeigt: Mittlerweile experimentieren viele Leute mit eigenen Chatbots. Privat und beruflich.

Es klingt ja auch verlockend: Ein solcher Chatbot kann den Usern mühsame "Fleissarbeiten" abnehmen und erstellt mehr oder weniger kreative Texte und Bilder.

Wo ist das Problem?

Kürzlich hat OpenAI noch einen daraufgesetzt: Nun gibt es eine Art App-Store für Chatbots.

Der GPT-Store ermöglicht es zahlenden Kundinnen und Kunden, die ein ChatGTP-Plus-Abo haben, von anderen Usern erstellte Chatbots zu nutzen und selber solche zu veröffentlichen. Diese Bots, die auf den Fähigkeiten von ChatGPT aufbauen, werden "GPTs" genannt. Und die Drittentwickler, die sie erstellen, sind die "Builder".

Dass die GPTs auf der Plattform von OpenAI zugänglich sind, bedeutet aber nicht, dass sie das gleiche Mass an Sicherheit und Datenschutz bieten wie ChatGPT selbst. Ganz abgesehen davon, dass auch OpenAI nicht über alle Zweifel erhaben ist und wegen fragwürdigem Umgang mit Daten Dritter beispielsweise in den USA juristischen Ärger hat.

Doch zurück zu den von Usern erstellten Bots.

Die gute Nachricht: Nicht alle Daten, die man während den Chats eingibt, sind für die Dritt-Entwickler zugänglich. OpenAI hält in seinen Datenschutz-FAQs fest, dass die Chat-Inhalte selbst weitgehend geschützt seien.

Auf der OpenAI-Website heisst es dazu:

"Vorerst haben die Entwickler keinen Zugriff auf die spezifischen Unterhaltungen mit ihren GPTs, um die Privatsphäre der User zu schützen. OpenAI denkt jedoch über zukünftige Funktionen nach, die den Buildern Analyse- und Feedback-Mechanismen zur Verfügung stellen, um ihre GPTs zu verbessern, ohne die Privatsphäre zu gefährden."

Darüber hinaus können die Builder aber auch eigene Programmierschnittstellen (API) an ihre Bots anbinden, um die Funktionalität zu erweitern. Und dabei gilt gemäss OpenAI zu beachten: "Hier werden Teile Ihrer Chats mit dem Drittanbieter der API geteilt, der nicht den Datenschutz- und Sicherheitsverpflichtungen von OpenAI unterliegt".

OpenAI überprüfe nicht unabhängig die Datenschutz- und Sicherheitspraktiken dieser Entwickler, wird betont. Damit verbunden ergeht eine klare Warnung an die User: "Verwenden Sie APIs nur, wenn Sie dem Anbieter vertrauen."

Der IT-Sicherheitsexperte Alastair Paterson, Geschäftsführer des US-Unternehmens Harmonic Security, veröffentlichte letzte Woche einen Blog-Post zum Thema. Schon im Titel warnt der Fachmann vor einem Wolf im Schafspelz. Und:

"Wenn ich ein Angreifer wäre, könnte ich eine App erstellen, die Sie dazu auffordert, Dokumente, Präsentationen, Code oder PDFs hochzuladen, und es könnte relativ harmlos aussehen. Die App könnte Sie sogar dazu ermutigen, Kundendaten oder geistiges Eigentum oder anderes sensibles Material zu veröffentlichen, das dann gegen Mitarbeiter oder Unternehmen verwendet werden kann."

In einer Stellungnahme gegenüber dem US-Medium Dark Reading versuchte ein OpenAI-Sprecher zu beschwichtigen:

"Um sicherzustellen, dass GPTs unsere Richtlinien einhalten, haben wir zusätzlich zu den bestehenden Sicherheitsmassnahmen, die wir in unsere Produkte eingebaut haben, ein neues Überprüfungssystem eingeführt. Der Überprüfungsprozess umfasst sowohl menschliche als auch automatische Überprüfungen. Die User können auch GPTs melden."

OpenAI ist natürlich bei Weitem nicht das erste Unternehmen mit einem App-Store. Ob die Kontrollen so streng sind wie die von Apple, Google und anderen, ist jedoch fraglich.

In den zwei Monaten, seit OpenAI anpassbare GPTs eingeführt hat, wurden bereits über 3 Millionen neue Bots erstellt. Es scheine "ein sehr einfacher Verifizierungsprozess" zu sein, um eine App zu veröffentlichen, gibt Paterson zu bedenken.

Dass User problematische Chatbots OpenAI melden sollen, damit sie überprüft und allenfalls entfernt werden, illustriert eine bei Techunternehmen aus dem Silicon Valley übliche Haltung: Dem Schutz der Privatsphäre und der Sicherheit der User-Daten wird nicht das gleiche Gewicht beigemessen wie dem schnellen Wachstum.

Bei OpenAI nimmt man also das Risiko missbräuchlicher Verwendung der ChatGPT-Technik bewusst in Kauf. Und wir User sind die Versuchskaninchen. Halt genau so, wie es Google, Meta und Co. erfolgreich vorgemacht haben.

Dieser Beitrag ist zuerst bei "Watson" erschienen.

Webcode
PxUK2H6D