SPONSORED-POST Fachbeitrag von G Data

KI bei Cyberangriffen: Zukunftsmusik oder reale Bedrohung?

Uhr
von Tim Berghoff, Security Evangelist,G Data Cyberdefense

Viele Menschen fürchten KI als Angriffswerkzeug. Doch ganz so weit ist es noch nicht. Der vollständig durch eine KI geplante und koordinierte Angriff ist noch Zukunftsmusik. Als Unterstützungswerkzeug ist KI aber bereits im Einsatz.

 Werkzeuge wie ChatGPT, Stable Diffusion, Midjourney oder Bard sind mittlerweile fast jedem schon einmal – wenigstens als Name – begegnet. Wer auf Youtube Videos schaut, wird immer wieder Vorschaubilder sehen, die ganz offensichtlich KI-generiert sind. Mittlerweile hat KI viel dazugelernt. Wo man früher noch Fälschungen mit einem Blick auf die Hände einer KI-generierten Figur enttarnen konnte (die sehr oft mehr Finger als gewöhnlich hatten), ist mittlerweile oft ein zweiter oder dritter Blick notwendig. Die Fortschritte sind halsbrecherisch schnell und die Qualität nimmt stetig und rapide zu. Zuletzt hat auch Alibaba aus China mit EMO AI nachgelegt – mithilfe eines einzelnen Referenzbildes erstellt die KI ein Video, in dem die abgelichteten Personen sprechen oder sogar singen. Und das ohne die bisweilen etwas «hölzern» wirkende Mundpartie aus anderen KI-Modellen, sondern gut artikuliert und durchaus überzeugend.

 

Regelwerke für KI

Demgegenüber stehen Bemühungen, KI-Technologien zu regulieren. Neu sind diese Bemühungen nicht, aber gerade in den letzten zwei Jahren sind die Rufe immer lauter geworden, bis hin zu Forderungen nach einem temporären Moratorium für die Entwicklung von KI. Der «AI Act», der in Europa der Verwendung künstlicher Intelligenz einen Rahmen geben soll, ist ein richtungsweisender, guter und begrüssenswerter erster Schritt, der allerdings nicht weit genug greift.

So sind Deepfakes im Artikel explizit «nur» in der Kategorie von Verwendungszwecken mit geringem oder nur minimalem Risiko eingeordnet – zusammen mit Chatbots, die etwa für den Kundensupport oder bestimmte Suchalgorithmen eingesetzt werden. Wer KI einsetzt, um bestimmte Dinge wie Menschen und Orte wahrhaftig erscheinen zu lassen, muss dies kennzeichnen. Diese Vorgehensweise verkennt jedoch eindeutig die Natur und das Potenzial von KI. Ein gezielt lancierter und in böser Absicht erstellter Deepfake kann Menschen potenziell sogar in den Suizid treiben. «Minimales Risiko?» Wohl kaum.

 

KI als Angriffsverstärker?

Doch die Welt der Cyberangriffe ist trotz aller teils beachtlicher technischer Fortschritte alles andere als «komplett umgekrempelt». Dieselben «Klassiker», die uns schon seit Jahrzehnten begleiten, sind nicht über Nacht verschwunden, sondern präsenter denn je. Phishing ist noch immer eine der beliebtesten, weil erfolgreichsten Angriffsmittel im Arsenal von Kriminellen. Die Qualität dieser Phishing-Nachrichten hat allerdings rapide zugelegt.  Wo früher eine betrügerische E-Mail oft an einer mehr oder minder schweren grammatikalischen Unwucht zu erkennen war, muss man heute sehr genau hinsehen – und selbst dann gelingt es Ungeübten kaum, die Fälschung als solche zu erkennen. Allenfalls in sprachlichen Details fällt so etwas überhaupt noch auf: Werkzeuge wie ChatGPT beherrschen zwar im Prinzip auch die deutsche Sprache, sind aber «unten drunter» noch immer auf Englisch entwickelt. Und das schlägt sprachlich an manchen Stellen noch etwas durch – in Form von Formulierungen, die auf Deutsch ein wenig «hinken», weil sie im Prinzip wörtliche Übersetzungen aus dem Englischen sind.

Es gab kürzlich sogar einen spektakulären Fall in Hongkong, in dem ein Firmenmitarbeiter Millionenbeträge an Kriminelle überwiesen hat. Und zwar – wie er glaubhaft versicherte – auf Anweisung von Vorgesetzten, während eines Videoanrufs. Die echten Vorgesetzten wussten jedoch nichts davon. Der Mitarbeitende war auf eine KI hereingefallen, die sich als Vorgesetzter ausgab und sehr überzeugende Deepfakes generiert hatte. Mit Bild und passender (ebenfalls KI-generierter) Stimme – die virtuellen Teilnehmer sollen auch untereinander agiert und auf das Gegenüber reagiert haben. Das ist Social Engineering auf allerhöchstem Level.

 

KI-generierte Ängste

All dies klingt beängstigend und das auch zurecht. Fakes werden immer schwerer identifizierbar, und Laien sind dabei komplett aufgeschmissen. Hieraus ergeben sich zahlreiche Risiken, angefangen von Cyberkriminalität bis hin zu der Fähigkeit, Falschinformationen zu streuen und damit sowohl politische Meinungsbildung und nationale Politik als auch internationale Beziehungen nachhaltig zu gefährden. Die Konstante, die sich hier wie ein roter Faden durch den gesamten Diskurs zieht, ist die Frage: «Welchen Informationen können wir tatsächlich noch trauen?»

Auch Konzerne wie Adobe, AWS, Google und Microsoft befassen sich nicht erst seit Kurzem mit den Möglichkeiten und den potenziellen Auswirkungen der künstlichen Intelligenz. Dabei haben sie teils mehr Weitblick an den Tag gelegt als die gesetzgebenden Organe auf nationaler und auch internationaler Ebene. Erste Forderungen nach einer Regulierung von KI gab es bereits 2016 – vor acht Jahren also. Doch wo man damals anscheinend den Handlungsbedarf nicht sah, hat die technische Realität der Entwicklung die Politik inzwischen ein- und auch überholt.

All das berührt noch nicht einmal im Ansatz das, was KI-Technologie mit jedem Einzelnen von uns macht. Der Grossteil der Zivilgesellschaft ist schlichtweg nicht bereit für die Risiken, die generative KI mit sich bringt. Und da geht es nicht nur um Fake News.

 

Lichtblicke

Wer die Entwicklung kritisch betrachtet, könnte – nachvollziehbarerweise – auf den Gedanken kommen, dass die Bekämpfung von KI-gestützter Cyberkriminalität ein Kampf gegen Windmühlen ist. Doch auch hier gibt es viel Gutes zu vermelden. Zum einen sind KI und auch verwandte Technologien nicht erst seit dem Aufkommen von ChatGPT ein Thema in der Cybersicherheitsforschung. Ohne diese Technologien wäre der tägliche Analyseaufwand von Malware-Analystinnen und -Analysten nicht zu bewältigen. Zum anderen: Wo KI die Kriminalität unterstützt, gibt es noch immer genug Anzeichen, die für eine Identifizierung etwa einer Phishing-Nachricht oder -Webseite übrigbleiben und die sich nur schwer verbergen lassen – wenn überhaupt.

Am Ende des Tages ist und bleibt KI aber in erster Linie eines: ein Werkzeug. Und wie es auch bei Werkzeugen in der physischen Welt der Fall ist, hat derjenige den Vorteil, der es am effektivsten und effizientesten einsetzen kann.

>>Mehr Informationen zu Endpoint Protection finden Sie hier.

 

Portrait
Tim Berghoff, Security Evangelist,
G Data Cyberdefense

 

Webcode
Tmqyo5is