Manipulation und Datenspionage

KI-Agenten erfordern Sicherheitsmassnahmen

Uhr
von Chiara Binder und jor

Im Vergleich zu reaktiven KI-Chatbots starten KI-Agenten selbstständig Aufgaben und treffen Entscheidungen. Diese Fähigkeit schafft erhebliche Sicherheitsrisiken, da sich KI-Agenten für automatisierte Angriffe, Manipulation und grossangelegte Datenspionage missbrauchen lassen.

(Source: peshkova / stock.adobe.com)
(Source: peshkova / stock.adobe.com)

Der im Juli von OpenAI eingeführte ChatGPT-Agent verfügt über erweiterte Funktionen, die ihn fundamental von herkömmlichen Assistenten unterscheiden. Diese neuen Funktionen bedeuten aber auch mehr Angriffsfläche und somit mehr Sicherheitsrisiken. Das Missbrauchspotenzial reicht von automatisierter Cyberkriminalität über gezielte Angriffe auf kritische Infrastrukturen bis hin zu grossflächiger Datenspionage, wie der japanische Anbieter von Cybersecurity-Lösungen Trend Micro mitteilt. 

Im Gegensatz zu klassischen Chatbots können KI-Agenten komplexe Aufgaben in mehreren Schritten ausführen und zu diesem Zweck auch auf externe Systeme zuzugreifen. Sie sind in der Lage, APIs anzusteuern, Werkzeuge zu starten und Prozesse vollständig zu automatisieren. Angreifer könnten diese Fähigkeiten ausnutzen, um persistente Zugänge im Unternehmensnetzwerk zu etablieren. Zudem seien KI-Agenten anfälliger für Datenschutzverstösse: Wer sie einsetzt, riskiert unbeabsichtigte Aktionen und mögliche Datenlecks. 

Die Kombination aus generativer KI, API-Anbindung und der Fähigkeit zur eigenständigen Aktionsausführung schafft laut Mitteilung ein Angriffspotenzial, das weit über traditionelle Social-Engineering- oder Phishing-Methoden hinausgeht. Ein kompromittierter KI-Agent wäre in der Lage, komplette Angriffsketten autonom durchzuführen, von der Erkennung einer Schwachstelle über den Erstzugang bis zur dauerhaften Verankerung im Zielsystem. Möglich wird dies durch seine Fähigkeit, externe Tools anzusteuern, Schnittstellen zu nutzen sowie Prozesse selbstständig zu planen und auszuführen. Ein solcher Agent könnte beispielsweise eigenständig Schwachstellen-Scans starten, Passwörter auslesen, interne Dokumente exfiltrieren oder Cloud-Services manipulieren.

Diese Aktionen könnten automatisiert und in einer Geschwindigkeit erfolgen, die menschliche Angreifer kaum erreichen könnten. Besonders kritisch ist der Umstand, dass ein Angreifer den Agenten nur ein einziges Mal manipulieren müsste, um anschliessend über Wochen oder Monate hinweg unbemerkt Datenabflüsse oder Sabotageaktionen durchzuführen.

Trend Micro empfiehlt, klare Zugriffsbeschränkungen für KI-Agenten zu implementieren, alle Aktivitäten von KI-Agenten zu überwachen und mögliche Angriffsszenarien zu simulieren, um Schwachstellen zu erkennen, bevor Cyberkriminelle sie ausnutzen. 

 

Die Black-Hat-Konferenz offenbarte unlängst die "AgentFlayer"-Lücke von KI-Agents, welche Datendiebstahl ermöglicht. Hier lesen Sie mehr dazu.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
DsSLnsdh