Treffen im Weissen Haus

Google, Microsoft, OpenAI & Co. akzeptieren KI-Sicherheitsregeln

Uhr
von Maximilian Schenner und cla

Sieben führende KI-Firmen, darunter OpenAI, haben Richlinien für die sichere Entwicklung von Technologie akzeptiert. Dies erfolgt auf Forderungen des Weissen Hauses hin.

(Source: Kristina Volgenau / unsplash.com)
(Source: Kristina Volgenau / unsplash.com)

Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI - die Liste der Firmen, deren Vertreter am 21. Juli im Weissen Haus zu Gast waren, kann sich sehen lassen. Bei einem Treffen mit US-Präsident Joe Biden verpflichteten sich die Unternehmen formell zu neuen, freiwilligen Sicherheitsstandards in der Entwicklung von KI-Anwendungen, wie unter anderem die "New York Times" berichtet. 

Zu den Vereinbarungen gehöre unter anderem die Prüfung von Produkten auf Sicherheitsrisiken und die Verwendung von Wasserzeichen, um KI-generiertes Material zu kennzeichnen. Ähnliches beschloss die Europäische Union im Mai im Rahmen des "AI Act", des weltweit ersten KI-Gesetzes.

"Wir müssen uns über die Bedrohungen im Klaren sein, die von neuen Technologien ausgehen, die unsere Demokratie und unsere Werte gefährden können - nicht müssen, aber können", wird der US-Präsident zitiert. Die freiwilligen Schutzmassnahmen seien jedoch nur ein erster, zaghafter Schritt in diese Richtung, schreibt die "New York Times". 

"Wir freuen uns, diese freiwilligen Verpflichtungen zusammen mit anderen in diesem Sektor einzugehen", wird indes Nick Clegg, Präsident für globale Angelegenheiten bei Meta, zitiert. "Sie sind ein wichtiger erster Schritt, um sicherzustellen, dass verantwortungsvolle Leitplanken für die KI geschaffen werden, und sie schaffen ein Modell, dem andere Regierungen folgen können."

Als Teil der Vorkehrungen hätten die sieben Firmen auch Sicherheitstests zugestimmt, die von unabhängigen Experten durchgeführt werden. Teil des Beschlusses sei auch die Forschung zu Vorurteilen und Datenschutzbedenken, Informationsaustausch über Risiken mit Regierungen und anderen Organisationen sowie die Entwicklung von Instrumenten zur Bekämpfung gesellschaftlicher Herausforderungen wie dem Klimawandel.

Die gemeinsam beschlossenen Regeln könnten jedoch je nach Firma unterschiedlich ausgelegt werden, befürchtet die "New York Times". So hätten sich die Unternehmen auch zu strengen Cybersicherheitsmassnahmen für die Daten verpflichtet, die zur Erstellung von Sprachmodellen für generative KI-Programme zum Einsatz kommen. Es gebe jedoch keine Angaben dazu, was das genau bedeute. Zudem hätten Firmen wohl ohnehin Interesse daran, sich vor Cyberangriffen zu schützen - wenngleich mit Mühen: Chinesische Hacker konnten erst vor wenigen Tagen wichtigen Code von Microsoft stehlen und damit in Mail-Konten amerikanischer Beamter eindringen.

Übrigens: Forschende in den USA haben über Monate hinweg GPT-generierte Antworten untersucht. Statt dazuzulernen scheint sich das Sprachmodell verschlechtert zu haben - mehr erfahren Sie hier. 

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
 

Webcode
FrbwNQ8H