Wie Cyberkriminelle KI-Assistenten missbrauchen
Google warnt im "AI Threat Tracker"-Bericht vor einer zweifachen Bedrohung: Einerseits setzen Cyberkriminelle KI für immer raffiniertere Angriffe ein. Andererseits werden die KI-Modelle selbst zum Ziel, etwa bei sogenannten "Model Extraction"- oder "Distillation Attacks".
Im "AI Threat Tracker"-Bericht warnt die Google Threat Intelligence Group (GTIG) vor KI-gestützten Bedrohungen. Staatliche Akteure nutzen demnach generative KI für systematische Cyberaufklärung, Social Engineering und Wirtschaftsspionage.
Die Zahl von sogenannten Model-Extraction-Angriffen oder "Distillation Attacks" nimmt laut Google zu. Der Konzern habe 2025 mehrere Akteure identifiziert, die mit solchen Angriffen generative KI-Produkte ins Visier nehmen, um Einblick in deren Funktionsweise zu erhalten. Diese Angriffe gingen von Unternehmen und Forschenden aus, die versuchen, an geistiges Eigentum oder proprietäre Modelldaten zu kommen, wie die GTIG weiter schreibt.
Der Bericht spricht zudem von Cyberkriminellen, die KI in allen Schritten des Angriffs einsetzen - vor allem aber für Social Engineering. Mit Gemini sammelten von Regierungen unterstützte Kriminelle Informationen über potenzielle Opfer sowie öffentlich bekannte Schwachstellen sammeln. Als Beispiele nennt der Konzern die vom iranischen Staat unterstützten APT42 oder die von der nordkoreanischen Regierung unterstützten UNC2970. Letztere Gruppierung gebe sich als Personalvermittlung aus und fokussiere sich dabei auf Rüstungsunternehmen. Mit Gemini gewinnen sie demnach Open-Source-Intelligence (OSINT) und Profile von hochrangigen Zielen.
Cyberkriminelle nutzen laut der Mitteilung weiterhin KI, um Malware fortzuentwickeln. Ein Beispiel dafür ist demnach die Malware Honestcue, die die API von Gemini nutzt, um traditionelle netzwerkbasierte Erkennung sowie statische Analysen zu umgehen. Zudem beobachtete Google KI-generierte Phishing-Kits. So etwa ein Coinbait-Phishing-Kit, das sich als Kryptowährungsbörse ausgab, um Zugangsdaten abzugreifen.
Aktivitäten in englisch- und russischsprachigen Untergrundforen deuten gemäss der GTIG auf eine anhaltende Nachfrage nach KI-gestützten Tools und Diensten hin. Dazu greifen Cyberkriminelle offenbar auf bestehende KI-Modelle zurück. So steige auch die Nachfrage nach gehackten oder gestohlenen API-Schlüsseln. Das Untergrund-Toolkit "Xanthorox" werde als massgeschneiderte KI zur autonomen Codegenerierung von Malware und Entwicklung von Phishing-Kampagnen beworben. Das Toolkit bestehe jedoch aus einer Kombination mehrerer kommerzieller KI-Produkte und Tools von Drittanbietern.
Übrigens: Das GTIG hat unlängst auch die aktuellen Bedrohungen der Rüstungsindustrie analysiert. Lesen Sie hier mehr dazu.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
Fast jedes vierte Smartphone kommt von Apple
Schweizer Versicherer vernachlässigen die digitale Integration
Spam macht 2025 fast die Hälfte des E-Mail-Verkehrs aus
KI entlastet nicht - sie erhöht das Burnout-Risiko
Update: Bund überarbeitet revidierte Überwachungsverordnungen
ISE 2026: Diese Messeneuheiten gefallen Secomp besonders
Phisher ködern mit Gratisangebot nach gefälschter Galaxus-Umfrage
Wie Cyberkriminelle KI-Assistenten missbrauchen
Set Phasers to Funk