Live-Interview mit Myriam Dunn Cavelty, ETH Zürich

Wie KI die Sicherheitspolitik beeinflusst

Uhr

Myriam Dunn Cavelty, Dozentin an der ETH Zürich, berät Regierungen und Unternehmen zu Cybersecurity. Im Interview sagt sie, wie Organisationen digitalen Bedrohungen begegnen sollten und was ausser Regulierung noch nötig ist, um KI-Risiken gerecht zu werden.

Myriam Dunn Cavelty, Dozentin an der ETH Zürich. (Source: zVg)
Myriam Dunn Cavelty, Dozentin an der ETH Zürich. (Source: zVg)

Sie beraten unter anderem Regierungen und Unternehmen im Bereich Cybersicherheit und Cyberkriegsführung. Wie kamen Sie zu dieser Tätigkeit?

Myriam Dunn Cavelty: Teils zufällig, teils aus Neugier – und aus viel Begeisterung für das Thema. Schon in den 1990er-Jahren hat mich das Internet fasziniert, insbesondere seine politischen Implikationen: Wer nutzt es, wofür und mit welchen Folgen? Durch meine langjährige Tätigkeit am Center for Security Studies der ETH Zürich konnte ich früh auch politisch beraten. 

Was raten Sie Organisationen, die sich angesichts der Komplexität digitaler Bedrohungen zunehmend überfordert fühlen – organisatorisch wie psychologisch?

Nicht den Kopf zu verlieren. Vieles ist gar nicht neu. Natürlich, das Technische ist komplex, aber das Grundprinzip bleibt: Es geht um Menschen, um Organisationen, um Kommunikation und Entscheidungsfindung unter Unsicherheit. Ich rate dazu, sich zu fokussieren, zu priorisieren und sich nicht in hypothetischen Worst-Case-Szenarien zu verlieren. Und: Sicherheit ist ein Prozess, kein Zustand. Statt Perfektion anzustreben, sollten Organisationen Resilienz aufbauen – also die Fähigkeit, Vorfälle zu bewältigen und daraus zu lernen. Dafür braucht es eine Sicherheitskultur, die nicht auf Angst basiert, sondern auf Verantwortung und Vertrauen. 

Was bereitet Ihnen persönlich derzeit mehr Sorgen – technologische Überforderung oder politische Kurzsichtigkeit beim Umgang mit neuen digitalen Bedrohungen?

Die Kombination aus beidem. Technologie wird oft als neutral betrachtet, ist aber zutiefst politisch. Bei KI etwa sehen wir Systeme, die Grundrechte betreffen – aber wenig politischen Gestaltungswillen. Politik denkt in Legislaturperioden, Technologie in exponentiellen Sprüngen. Es braucht eine Verknüpfung von strategischem Denken mit technologischer Kompetenz.

Wie setzen Sie KI bei Ihrer Beratungstätigkeit zur strategischen Vorausschau ein? 

KI eignet sich zur Szenarienbildung, aber nicht zur echten Vo­rausschau. Sie basiert auf Bekanntem. Ich nutze KI unterstützend – zur Textanalyse, Trendidentifikation, Clusterbildung. Die Bewertung bleibt menschlich. KI liefert Impulse, aber keine Entscheidungen. Kontext und Urteilskraft sind unersetzlich.

Kritische Stimmen warnen vor den Risiken und Unsicherheiten künstlicher Intelligenz. Gleichzeitig scheint sich die Politik mit einer Regulierung zurückzuhalten. Warum reagiert die Politik nicht dezidierter?

Technologien in der Entwicklung zu regulieren, ist schwierig: Zu früh, und man behindert Innovation; zu spät, und die Risiken sind da. Zudem fehlt oft technisches und strategisches Verständnis. Und: Es fehlt ein gesellschaftlicher Konsens darüber, was KI darf oder nicht darf. Das macht Regulierung politisch heikel.

Der Bundesrat will KI nach dem Vorbild der USA möglichst wirtschaftsfreundlich regulieren. Die EU hingegen führt mit dem AI Act ein umfassendes Gesetz ein, das bestimmte KI-Anwendungen ausdrücklich verbietet. Welcher Ansatz ist Ihrer Ansicht nach zielführender?

Der EU-Ansatz ist ambitioniert: Er setzt klare Grenzen, besonders bei Hochrisikoanwendungen, und nimmt damit Schutzpflichten ernst. Ein rein wirtschaftsfreundlicher Ansatz – wie in den USA – birgt hingegen das Risiko, gesellschaftliche Folgen zu vernachlässigen und langfristig Vertrauen in Technologie zu untergraben. Für die Schweiz wäre ein Mittelweg sinnvoll: flexibel, aber nicht naiv – und anschlussfähig an internationale Standards. Denn wir sind kein Inselstaat, weder wirtschaftlich noch politisch. Eine kluge Regulierung schafft nicht nur Rechtssicherheit, sondern wird auch zum Standortvorteil – gerade bei einer sensiblen Technologie wie KI.

NGOs wie etwa Algorithmwatch Schweiz fordern strengere Regulierungen, um Risiken zu minimieren. Was halten Sie davon?

Diese Stimmen sind wichtig – sie ergänzen die Wirtschaft um eine gesellschaftliche Perspektive. Eine gesunde digitale Gesellschaft braucht auch digitale Grundrechte. Ich sehe zivilgesellschaftliche Organisationen als notwendiges Korrektiv. Sie wirken als Frühwarnsystem für ethische Risiken wie Diskriminierung oder Intransparenz. Auch wenn ihnen oft die institutionelle Mitsprache fehlt, leisten sie einen zentralen Beitrag.

Was braucht es ausser Regulierungsansätzen, um den gesellschafts- und sicherheitspolitischen Risiken gerecht werden zu können, die sich aus dem zunehmenden Einsatz von KI-Anwendungen ergeben?

Bildung, Reflexion und eine breite Debatte über die Rolle von Technologie sind zentral. Technikgestaltung ist immer auch Gesellschaftsgestaltung – dafür braucht es ethische, soziale und politische Leitlinien. Ausser der technischen Expertise braucht es auch interdisziplinäre Perspektiven und institutionelle Kapazitäten, besonders im öffentlichen Sektor. Auch die Bevölkerung muss befähigt werden: Kritisches Denken und der Umgang mit Unsicherheit sind sicherheitspolitisch relevant.

Wie kann die Sicherheitspolitik auf die Heraus­forderungen durch KI reagieren?

Die Sicherheitspolitik muss KI sowohl als Risiko als auch als strategisches Instrument verstehen – etwa für Lageanalysen, Frühwarnung oder Cyberabwehr. Dafür braucht es Szenarien, die auch Fehlverhalten, Eskalationen oder Nebenwirkungen automatisierter ­Systeme mitdenken. Wichtig sind klare Verantwortlichkeiten, Transparenz und der gezielte Kompetenzaufbau in sicherheitspolitischen Institutionen. Neue Einsatzdoktrinen und verbindliche Ethikrichtlinien sind ebenso notwendig wie internationale Regeln zur Regulierung autonomer Systeme und algorithmischer Entscheidungsgewalt im militärischen Kontext.

Theoretisch könnten Staaten KI-basierte Frühwarnsysteme im Cyberraum einsetzen. Wie viele Staaten tun dies bereits in der Praxis?

Es gibt bereits zahlreiche KI-Anwendungen im Cyberraum, etwa zur Mustererkennung, Anomalie- und Angriffsfrüherkennung – genutzt von Staaten wie auch Unternehmen. Wie weit einzelne Staaten tatsächlich sind, bleibt allerdings unklar, da viele Systeme Teil militärischer oder geheimdienstlicher Infrastruktur sind. Es wird oft übersehen, dass solche Frühwarnsysteme meist in Koopera­tion mit grossen Technologiekonzernen entstehen – was neue Fragen zu Kontrolle, Abhängigkeiten und Transparenz aufwirft.

Wie gut funktionieren diese Systeme Ihrer Erfahrung nach und welche ethischen oder sicherheitspolitischen Herausforderungen sehen Sie dabei?

Automatisierte Frühwarnsysteme können nützlich sein, ihre Wirksamkeit hängt jedoch stark von ihrer Einbettung ab. In der Praxis sind sie oft fehleranfällig: Zu viele Fehlalarme führen zur «Alarmmüdigkeit», echte Bedrohungen können übersehen werden. Hinzu kommt ihr Blackbox-Charakter – fehlende Nachvollziehbarkeit untergräbt das Vertrauen. Die zentrale Frage lautet: Wie viel sicherheitspolitische Verantwortung wollen wir Maschinen überlassen? Frühwarnsysteme brauchen menschliche Kontrolle, klare Zuständigkeiten und transparente Entscheidungsstrukturen – denn Vertrauen entsteht nicht durch Technik allein.

Was sind die Gefahren, wenn solche Frühwarn­systeme danebenliegen?

Eine der grössten Gefahren automatisierter Frühwarnsysteme ist der schleichende Verlust menschlicher Urteilskraft. Wer sich zu sehr auf KI verlässt, riskiert, kritische Analysefähigkeiten zu verlernen – gerade in sicherheitsrelevanten Situationen. Fehl­alarme oder übersehene Bedrohungen können politische Eskalationen auslösen, besonders wenn Systeme mit automatisierten Reaktionen gekoppelt sind. Zudem entsteht ein trügerisches Sicherheitsgefühl: Technik ersetzt keine menschliche Wachsamkeit. Technik ist eine Ergänzung, man darf ihr nicht blind vertrauen.

Und wer haftet bei Fehlern?

Das ist eine der drängendsten Fragen überhaupt, doch in vielen Fällen ist das derzeit ungeklärt. Es braucht dringend rechtliche Rahmenbedingungen, die Verantwortlichkeiten bei Fehlern automatisierter Systeme eindeutig regeln. Ohne eine solche Klarheit droht eine «verantwortungslose Automatisierung», in der niemand zur Rechenschaft gezogen werden kann – selbst bei gravierenden sicherheitspolitischen Fehlentscheidungen. Das gefährdet sowohl das Vertrauen in KI als auch die Handlungsfähigkeit von Institutionen.

Sie forschen auch zur Geopolitik digitaler Technologien. Inwiefern führt der technologische Fortschritt im Bereich künstlicher Intelligenz zu einer Neuverteilung globaler Machtverhältnisse zwischen Grossmächten wie den USA, China und der EU?

Der technologische Fortschritt bei KI verschärft globale Macht­ungleichgewichte. Die USA und China dominieren – mit unterschiedlichen Strategien: die USA über marktorientierte Innovation, China über staatlich gesteuerte Technologiemacht. Die EU setzt auf Regulierung und normative Standards, hat aber mit fehlender technologischer Souveränität zu kämpfen. Für kleinere Länder wie die Schweiz entsteht daraus eine strategische Herausforderung: Ohne Zugang zu Plattformen oder Daten braucht es gezielte Allianzen und klare Interessen. Denn KI ist längst sicherheitspolitisch relevant – wer sie kontrolliert, beeinflusst auch Informationsflüsse und Entscheidungsprozesse.

Glauben Sie, dass KI-Technologien das Potenzial haben, neue Machtzentren oder sogar nichtstaat­liche Akteure zu stärken – und wie würde sich das auf die globale Sicherheitsarchitektur auswirken?

Absolut, ja. Wir sehen bereits, wie etwa Staaten im Golf durch KI-gestützte Rüstungstechnologien, autonome Systeme und digitale Überwachung massiv an geopolitischem Gewicht gewinnen. Auch grosse Tech-Unternehmen – von Cloud-Anbietern bis zu KI-Firmen – werden zu geopolitischen Akteuren, weil sie kritische Infrastrukturen kontrollieren. Zugleich senkt KI die Einstiegshürde für kleinere Akteure: Mit Open-Source-Tools, Drohnen oder Deep­fakes können auch nichtstaatliche Gruppen global wirksam werden. Das untergräbt klassische Sicherheitsstrukturen, die auf staatlichem Gewaltmonopol und territorialer Logik beruhen. Wir brauchen neue Mechanismen – etwa zur Verantwortungsteilung, Regulierung und Attribution –, um auf diese transnationale, oft schwer greifbare Verschiebung angemessen reagieren zu können.


Zur Person
Myriam Dunn Cavelty ist Senior Scientist und Stellvertreterin für Forschung und Lehre am Center for Security Studies an der ETH Zürich. Ihre Forschungs- und Lehrtätigkeit fokussiert sich darauf, wie digitale Technologien politisches Verhalten und gesellschaftliche Werte prägen und welche spezifischen Regelungen für ihren Einsatz entstehen. Dunn Cavelty berät zudem Regierungen und Unternehmen in den Bereichen Cybersicherheit, Cyberkrieg, Schutz von kritischen Infrastrukturen, Risikoanalyse und strategische Vorausschau.

Webcode
si5VRvWq