Wo ChatGPT die Cybersicherheit unterstützen kann
Cisco Talos hat untersucht, wie KI-Modelle wie ChatGPT Security-Teams bei der Abwehr von Cyberangriffen unterstützen können. Erste Ergebnisse zeigen Potenziale, aber auch klare Einschränkungen.
 
  Künstliche Intelligenz (KI) spielt zunehmend eine Rolle in der Cybersicherheit. Doch können grosse Sprachmodelle wie ChatGPT tatsächlich dabei helfen, komplexe Bedrohungen abzuwehren? Dieser Frage ging das Team von Cisco Talos in einer aktuellen Untersuchung nach. Ziel war es, herauszufinden, ob und wie KI-gestützte Modelle Security-Teams bei der Erkennung, Analyse und Optimierung von Sicherheitsregeln unterstützen können.

Thorsten Rosendahl, Technical Leader bei Cisco Talos. (Source: zVg)
"KI-gestützte Cyberangriffe erfordern auch KI bei der Abwehr", sagt Thorsten Rosendahl, Technical Leader bei Cisco Talos. Laut Rosendahl bieten grosse Sprachmodelle ein hohes Potenzial, insbesondere bei der Simulation von Angriffstechniken und der Verbesserung der Cybersicherheit in IT-Netzwerken.
Die Tests von Cisco Talos zeigten, dass ChatGPT (bzw. GPT-3.5) in einigen Bereichen hilfreich sein kann. So erleichtere das Modell beispielsweise das Verständnis komplexer Erkennungsregeln, indem es diese in natürlicher Sprache erkläre. Besonders hilfreich sei dies, wenn vollständige Regeltexte vorlägen, da die KI präzise und verständliche Beschreibungen liefern könne. Allerdings sei es in Einzelfällen zu Halluzinationen gekommen.
Ein weiteres Einsatzgebiet ist die Simulation von Bedrohungen. Hier zeigte sich, dass GPT-3.5 in der Lage ist, bösartige Auslöser für spezifische Erkennungsregeln zu generieren. Diese Befehle waren meist korrekt, mussten jedoch oft an die jeweilige Umgebung angepasst werden, wie Cisco Talos schreibt. Zudem hätten die Forschenden Sicherheitsvorkehrungen des Modells umgehen müssen, um solche Tests durchführen zu können.
Grenzen zeigte die KI jedoch bei der Umgehung von Erkennungsregeln. Zwar habe das Modell Vorschläge für bösartige Verhaltensweisen liefern können, diese seien jedoch selten praktisch umsetzbar und für Angreifer leicht zu erkennen. Somit ist GPT-3.5 in diesem Bereich nur eingeschränkt hilfreich, wie es weiter heisst.
"Trotz einiger Schwächen kann GPT-3.5 Security-Teams in bestimmten Bereichen unterstützen", so Rosendahl. Besonders die Fähigkeit, Informationen in natürlicher Sprache zu übersetzen und kreative Ansätze zu liefern, sei vielversprechend. Dennoch sieht er weiteren Forschungsbedarf, um das Potenzial solcher Modelle voll auszuschöpfen.
Die Ergebnisse von Cisco Talos verdeutlichen, dass KI-Modelle wie ChatGPT zwar nützliche Werkzeuge für die Cybersicherheit sein können, jedoch keine Allheilmittel darstellen. Vielmehr könnten sie in Zukunft als Ergänzung zu bestehenden Sicherheitslösungen dienen, um Security-Teams bei ihrer Arbeit zu entlasten und zu unterstützen.
Cyberkriminelle nutzen indes ChatGPT, um Schafsoftware zu schreiben. Mehr dazu lesen Sie hier.
Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.
 
Cyberkriminelle nutzen Schwachstelle in Microsoft WSUS aus
 
VBS verleiht Preis für "Cyber Start-up Challenge" an Pometry
 
ISE 2026: Die Pro-AV-Branche erhält einen Cybersecurity Summit
 
Nvidias Börsenwert knackt die Marke von 5 Billionen US-Dollar
 
Was Mitarbeitende laut Die Ergonomen Usability am IT-Arbeitsplatz erwarten
 
Apple verkündet Rekordumsatz und optimistische Prognosen
 
Swiss Cyber Storm 2025: Thermitgranaten, Gig-Economy-Vandalen und ein klarer Aufruf
 
Auch Vampire können vegan leben - sagt jedenfalls Morgan Freeman
 
Armeechef wünscht sich Microsoft-Alternative für Gruppe Verteidigung
 
 
 
 
 
 
 
 
 
 
 
