Generative KI bedroht die Cybersicherheit
Der Einsatz von grossen Sprachmodellen birgt erhebliche Risiken für die Cybersicherheit, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt. Demnach sollten insbesondere staatliche Institutionen Vorsicht walten lassen, wenn sie generative künstliche Intelligenz einsetzen.
 
  Die Entwicklung und Verbreitung von künstlicher Intelligenz stellt grosse Herausforderungen für die Sicherheit im Cyberraum dar. Insbesondere maschinelle Lernmodelle zur Generierung von Texten, Bildern oder Videos, besser bekannt unter dem Begriff "generative künstliche Intelligenz", werden immer leistungsfähiger und bieten erhebliche Missbrauchsrisiken, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt.
Zu den Risiken gehören etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Ein solcher Missbrauch von Lernalgorithmen könne die Sicherheit der genutzten KI-Anwendungen gefährden. Beispielsweise könnten KI-Modelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden sind, schreibt Armasuisse.
Large Language Models (LLMs) würden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Da sie allerdings mehrheitlich im Ausland hergestellt werden, sei insbesondere für staatliche Akteure in der Schweiz Vorsicht geboten. Für eine sichere Entwicklung und einen sicheren Einsatz von generativer KI sollten Sicherheitskontrollen in der Datenverarbeitungskette zum Einsatz kommen, stellen die Studienautoren und -autorinnen fest.
Der Cyber Defense Campus von Armasuisse erarbeitete die Open-Access-Studie mit Titel "Large Language Models in Cybersecurity" in Zusammenarbeit mit der Fachhochschule Westschweiz (HES-SO). Sie soll Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und Wirtschaft bei der Beurteilung von Einsatzrisiken und der Entwicklung von Sicherheitsmassnahmen helfen. Die Autorinnen und Autoren rufen Staat, Wirtschaft und Gesellschaft dazu auf, sich mit den schnell wachsenden technologischen Entwicklungen auseinanderzusetzen und proaktive Massnahmen zu ergreifen.
Übrigens: Eine Firma, die Deepfakes den Kampf angesagt hat, ist das ETH-Spin-off Latticeflow AI. Lesen Sie hier mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
 
HSG, ETH und Zurich tüfteln an KI-Lösungen für die Versicherungsbranche
 
TD Synnex erweitert Partnerschaft mit Vasion auf den DACH-Raum
 
Einladung zum Webinar: Wie KI, Robotik und Drohnen unser Vertrauen herausfordern
 
Update: Bundesrat will Social-Media-Plattformen regulieren
 
Delta Logic zeigt, wie KI die Rechtspflege verändert
 
Schweizer KMUs verlieren Vertrauen in ihre Cybersicherheit
 
Sens eRecycling führt 70'000 Tonnen Wertstoffe zurück in Rohstoffkreislauf
 
Schweizer ICT-Industrie setzt an der Gitex in Dubai Akzente
 
Meerschweinchen frisst verschiedene Snacks
 
 
 
 
 
 
 
 
 
 
 
