Transparenz, Verantwortung und Sicherheit

Kalifornien beschliesst rechtlichen Rahmen für KI-Giganten

Uhr
von Yannick Chavanne und Übersetzung: René Jaun

Mit einem neuen Gesetz nimmt der US-Bundesstaat Kalifornien KI-Anbieter stärker in die Pflicht. Transparenz, Verantwortung und Sicherheit gehören zu den Grundpfeilern des neuen Regelwerks.

(Source: Tingey Injury Law Firm / Unsplash.com)
(Source: Tingey Injury Law Firm / Unsplash.com)

Kalifornien ist der erste US-Bundesstaat, der auf gesetzlichem Wege Anforderungen an Unternehmen festlegt, die hochmoderne KI-Modelle entwickeln. Das Gesetz SB 53, welches Gouverneur Gavin Newsom am 30. September 2025 unterzeichnete, nimmt insbesondere Akteure wie OpenAI, Meta, Anthropic und Google DeepMind in die Pflicht. Wie die Kalifornische Verwaltung mitteilt, schreibt das neue Gesetz erhöhte Transparenzpflichten in Bezug auf Sicherheitsprotokolle vor. Ausserdem stärkt es den Schutz für Whistleblower und definiert Mechanismen zur Meldung kritischer Vorfälle.

Demnach sieht das Gesetz vor, dass Unternehmen die Behörden insbesondere bei Vorfällen im Zusammenhang mit Straftaten ohne menschliche Aufsicht benachrichtigen müssen, also etwa bei Cyberangriffen. Melden müssen sie aber auch schädliches oder irreführendes Modellverhalten, namentlich dann, wenn das Verhalten "zum Tod, zu schweren Verletzungen oder zum Verlust der Kontrolle über das System führt oder ein erhebliches Risiko dafür darstellt", wie "WILMERHALE PRIVACY AND CYBERSECURITY LAW" zusammenfasst. Der europäische AI-Act deckt nicht alle derartigen Fälle ab.

Schwerpunkt auf Sicherheit, Innovation und Verantwortung

Der ursprünglich von Senator Scott Wiener (Demokrat aus San Francisco) eingebrachte Gesetzentwurf SB 53 verpflichtet die betroffenen Unternehmen dazu, einen Sicherheitsrahmen (Security Framework) zu veröffentlichen. Darin müssen sie offenlegen, wie sie nationale und internationale Standards einhalten. Ferner sieht das Gesetz die Gründung eines öffentlichen Konsortiums namens Calcompute innerhalb der Government Operations Agency vor. Es hat die Aufgabe, einen Rahmen für die Einrichtung eines öffentlichen IT-Clusters zu entwickeln, der die Entwicklung einer sicheren, ethischen, fairen und nachhaltigen künstlichen Intelligenz fördern soll.

Betroffene Unternehmen sind uneins

Bei den von SB 53 betroffenen Unternehmen rief das Gesetz unterschiedliche Reaktionen hervor, wie "Tech Crunch" gberichtet. So stellte sich Anthropic hinter das Regelwerk und sprach von einem Schritt in Richtung verantwortungsvoller KI-Entwicklung.

OpenAI und Meta sprachen sich derweil dagegen aus. In einem offenen Brief forderte OpenAI Gouverneur Newsom auf, das Gesetz nicht zu unterzeichnen. Beide Tech-giganten finden, Initiativen auf Bundesstaatenebene fragmentierten die nationale Regulierung und könnten damit technologische Innovationen bremsen. Die Kritiker befürchten einen "Regulierungsflickenteppich", der für national oder international tätige Unternehmen schwer zu handhaben wäre.

 

In der Schweiz lässt der Gesetzgeber KI vorerst weitgehend unreguliert. Wer KI-Anwendungen entwickelt, muss sich dennoch an bestehende Gesetze halten. Der EDÖB rief im Frühling 2025 in Erinnerung, was in puncto Datenschutz erlaubt und verboten ist.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

 

 

Tags
Webcode
KAAaWj5J