Die OST sagt, wie viel KI die Cyberabwehr braucht
Künstliche Intelligenz (KI) ist zu einem integralen Bestandteil der IT-Security geworden. Aber wie viel KI braucht die Cybersicherheit wirklich? Und übernimmt sie nun die komplette Cyberabwehr? Die Antworten hat Christian Thiel, Studiengangsleiter Wirtschaftsinformatik MSc an der Ostschweizer Fachhochschule (OST).
Wie viel KI braucht die Cyberabwehr?
Christian Thiel: So viel, wie messbar Nutzen bringt – und niemals ohne Governance. In der Praxis bedeutet das, KI gezielt dort einzusetzen, wo Volumen und Geschwindigkeit menschliche Kapazitäten übersteigen: bei der Triage von Alarmen, der Anreicherung von Kontextdaten, der Mustererkennung in Netzwerk- und Log-Daten oder der Phishing-Abwehr. Der Grundsatz bleibt "Human-in-the-Loop": Die KI entlastet und beschleunigt, aber der Mensch trifft die finale Entscheidung. Etablierte Rahmenwerke wie das NIST AI RMF – National Institute of Standards and Technology Artificial Intelligence Risk Management Framework – oder die Norm ISO/IEC 42001 sorgen dafür, dass Risiken wie Daten-Drift, mangelnde Erklärbarkeit und Transparenz von Anfang an mitgedacht und durch kontinuierliches Monitoring und Red-Teaming beherrschbar bleiben. Kurz gesagt: punktuell hochautomatisieren, aber immer mit klaren Zielen, Metriken und Leitlinien.
Bei welchen Aufgaben bietet KI den grössten Nutzen?
Der grösste Nutzen zeigt sich in der gesamten Abwehrkette, von der Prävention bis zur Reaktion. Konkret sind das Bereiche wie E-Mail- und Phishing-Abwehr: Analyse von Texten, Bildern und Audiodateien, um Social Engineering und sogar Deepfake-Indizien zu erkennen; Anomalie- und Verhaltenserkennung – UEBA User and Entity Behavior Analytics –: Identifikation von untypischem Nutzer- oder Systemverhalten, das auf laterale Bewegungen im Netzwerk oder missbrauchte Privilegien hindeutet; SOC-Automatisierung: KI dedupliziert Alarme, reichert sie mit Kontext zu Assets, Schwachstellen und Bedrohungsdaten an, fasst komplexe Fälle für Analysten zusammen und steuert automatisierte Reaktions-Playbooks – SOAR Security Orchestration, Automation, and Response –; Threat Intelligence & Hunting: Abgleich riesiger Datenmengen mit bekannten Angriffsmustern – etwa "MITRE ATT&CK", eine global zugängliche Wissensdatenbank über Taktiken und Techniken von Angreifern, basierend auf realen Beobachtungen – und Unterstützung bei der hypothesenbasierten Suche nach unbekannten Bedrohungen; oder Secure Coding & DevSecOps: KI-gestützte Überprüfung von Code, Infrastructure-as-Code (IaC) und Konfigurationen sowie die intelligente Priorisierung von Schwachstellen. Voraussetzung für all das sind saubere Datenpipelines und eine solide Zero-Trust-Architektur.
Wo sind die blinden Flecken der KI?
Die grösste Schwachstelle ist, dass die Logik der KI selbst zum Angriffsziel wird. Dieses Feld nennt sich Adversarial Machine Learning und umfasst Risiken, die in Frameworks wie "MITRE ATLAS" – Adversarial Threat Landscape for Artificial-Intelligence Systems – und den "OWASP"-Top-10 für LLMs dokumentiert sind. Dazu gehören Prompt-Injection und Datenvergiftung – Data Poisoning –, bei denen Angreifer Modelle durch manipulierte Eingaben oder Trainingsdaten gezielt in die Irre führen oder Hintertüren einbauen. Weitere blinde Flecken sind Daten- und Modell-Drift, bei denen Modelle über die Zeit an Präzision verlieren, sowie Halluzinationen, bei denen die KI Fakten erfindet, was im Sicherheitskontext fatal ist. Hinzu kommen Risiken in der Supply-Chain durch unsichere Drittbibliotheken und die ungesteuerte Nutzung von Shadow-AI durch Mitarbeitende, die unklare Datenflüsse und Datenschutzrisiken schafft.
Die Gegenseite setzt ebenfalls auf KI. Wem nützt sie mehr – den Cyberkriminellen oder der Cyberabwehr?
Kurzfristig profitieren Angreifer von enormen Skaleneffekten. Generative KI senkt die Hürden für die Erstellung von überzeugenden Phishing-Mails, Deepfakes und Social-Engineering-Kampagnen oder beschleunigt die Entwicklung von Malware-Varianten. Mittelfristig haben jedoch die Verteidiger die besseren Karten – vorausgesetzt, sie nutzen ihre Daten konsequent. Während Angreifer KI taktisch für einzelne Kampagnen einsetzen, können Verteidiger sie strategisch auf Basis ihrer gesamten Telemetrie – Logs, Netzwerkverkehr, Endpunktdaten – trainieren. Studien von ENISA – European Union Agency for Cybersecurity – und NCSC oder BACS zeigen zwar eine Zunahme KI-gestützter Betrugsfälle, belegen aber auch, dass datengetriebene Organisationen ihre Erkennungsraten signifikant steigern können. Der entscheidende Vorteil der Verteidiger liegt im kontinuierlichen, datenübergreifenden Lernprozess, der eine proaktive Härtung, eine präzisere Erkennung und eine automatisierte Reaktion ermöglicht.
Übernimmt die KI nun die komplette Cybersecurity? Wie viele Mitarbeitende braucht es jetzt noch in der Abwehr?
Nein, die Vorstellung einer vollautomatisierten Cyberabwehr ist eine Illusion. KI verlagert die Arbeit von repetitiven Level-1-Aufgaben hin zu hochkomplexer Level-2/3-Analyse, Engineering, Governance und proaktivem Threat-Hunting. Die Rollen ändern sich fundamental: SOC-Analysten werden zu Automations- und Playbook-Designern und neue Profile wie AI-Security-Engineers, Model-Risk-Manager und spezialisierte Red-Teams für KI entstehen. Personell bedeutet das: Wir brauchen gleich viel oder sogar mehr Kompetenz, aber anders verteilt. Eine vollautomatisierte Abwehr ohne menschliche Aufsicht, strategische Weitsicht und ethische Kontrolle ist in sicherheitskritischen Umgebungen weder realistisch noch verantwortbar. Der Mensch bleibt die letzte Instanz für Kontext, Kreativität und kritische Entscheidungen.
Die Antworten der weiteren Teilnehmenden des Podiums:
- Michael Born, PXL Vision: "Eine rein KI-gesteuerte Abwehr wäre fahrlässig, da Maschinen ohne menschliches Urteil weder Kontext noch Prioritäten verlässlich bewerten."
- Elier Cruz, Check Point: "Der anhaltende Fachkräftemangel in der Cybersecurity besteht fort; KI mildert ihn, beseitigt ihn aber nicht."
- Cornelia Lehle, G Data: "Mangelnde Präzision erschwert den Einsatz von KI in Bereichen, wo akkurate Ergebnisse erforderlich sind."
- Sebastian Schmerl, Arctic Wolf: "Ohne Schulung, klare Prozesse und menschliche Kontrolle bleibt jedes Modell anfällig für Fehlinterpretationen."
- Michael Schröder, Eset: "KI soll immer nur einen Baustein in einer vielschichtigen Strategie darstellen."
- Andy Weiss, Palo Alto Networks: "Der Erfolg KI-basierter Sicherheitslösungen steht und fällt mit der Datenqualität."
- Richard Werner, Trend Micro: "Neue Attacken, sogenannte Zero Days, sind auch für eine KI nur schwer identifizierbar."
- Stefan Züger, Fortinet: "Ohne geschultes Personal vergrössern KI-Lösungen sogar Schwachstellen."
- Benjamin Zulliger, FHNW: "Wer jetzt nicht mit der Integration von KI beginnt, wird bald einem exponentiellen Aufholbedarf gegenüberstehen."
Arctic Wolf sagt, wie viel KI die Cyberabwehr braucht
KI-Start-up Wonderful lässt sich in Zürich nieder
Best of Swiss Web 2026 geht an den Start
Schweizer IT-Löhne steigen 2026 moderat - aber stärker als in allen anderen Branchen
Startschuss für den Netzmedien Grand Prix 2025
G Data sagt, wie viel KI die Cyberabwehr braucht
"Wir orchestrieren die besten Hacker – menschlich wie maschinell "
Fortinet sagt, wie viel KI die Cyberabwehr braucht
PXL Vision sagt, wie viel KI die Cyberabwehr braucht