Webinar KI und Security

Angriff oder Abwehr – wer im KI-Wettrennen die Nase vorn hat

Uhr
von Coen Kaat

Künstliche Intelligenz hat das Potenzial, die Cyberabwehr stark zu verbessern – aber auch Cyberkriminelle können sie für ihre Machenschaften nutzen. Wer im Wettlauf zwischen Cyberkriminellen und IT-Verantwortlichen die Nase vorn hat, zeigten Netzmedien und Mimecast in einem gemeinsamen Webinar.

(Source: zVg)
(Source: zVg)

Der Siegeszug der künstlichen Intelligenz (KI) hat 2023 den Diskurs in Wirtschaft, Gesellschaft und Politik geprägt und wird ihn weiter prägen. Jede Branche verspricht sich einen Vorteil von KI-Tools wie ChatGPT und Co. Für viele sind sie schon heute aus dem Business nicht mehr wegzudenken.

KI ist aber ein zweischneidiges Schwert. Nicht nur die Cyberabwehr, sondern auch die Cyberkriminellen steigern damit ihre Effizienz. So kommt es zu einem Wettlauf zwischen Cyberkriminellen und IT-Verantwortlichen bei der Nutzung dieser Technologie. Um dieses Spannungsfeld zu beleuchten, veranstalteten Netzmedien und der Cybersecurity-Anbieter Mimecast Ende Februar ein gemeinsames Webinar.

Zunächst zeigte Yves Kraft, Head of Cyber Security Academy bei Oneconsult, wie Cyberkriminelle KI für ihre Machenschaften nutzen. Um die vielseitigen Fähigkeiten der KI zu verdeutlichen, zeigte Kraft die Möglichkeiten anhand eines realen Angriffsszenarios (siehe Grafik). Die Zeitangaben stimmen relativ zueinander, wurden aber verändert, damit sie keine Rückschlüsse auf das betroffene Unternehmen ermöglichen.

Der Fall begann mit einem Social-Engineering-Angriff (Vishing). Die Cyberkriminellen hatten von einem Lieferanten in einem Telefonat Zugangsdaten gestohlen. So konnten sie sich per Remotedesktop bei der Opferfirma anmelden, anschliessend ein Adminkonto knacken und schliesslich im Netzwerk herumschnüffeln.

(Source: zVg)

Yves Kraft, Head of Cyber Security Academy bei Oneconsult. (Source: zVg)

Nach einer kurzen Funkstille kamen die Angreifer zurück und begannen, sich lateral im Netzwerk auszubreiten und auf verschiedene Server zuzugreifen. Zu diesem Zeitpunkt wurden auch Daten entwendet.

Als die Cyberkriminellen eine Backdoor platzieren wollten, flogen sie auf; die Opferfirma holte sich Hilfe bei externen Spezialisten, allen voran Oneconsult. Dies bemerkten wiederum die Cyberkriminellen, woraufhin sie begannen, die IT-Systeme des Opfers zu verschlüsseln. Die Daten der Firma landeten im Darknet.

Der Ablauf eines Cyberangriffs. (Source: Yves Kraft, Oneconsult)

Der Ablauf eines Cyberangriffs. (Source: Yves Kraft, Oneconsult)

Ein Cyberangriff mit KI-Tools

"Wo hätten die Angreifer hier auf KI setzen können?", fragte Kraft, bevor er die Frage gleich selbst beantwortete. Schon bei den ersten Schritten hätten sie beispielsweise mit einem KI-Modell die Stimme eines Mitarbeitenden imitieren können. Wie das geht, demonstrierte Kraft im Webinar gleich selbst. Mit einem entsprechend trainierten Text-to-Speech-Tool imitierte er die Stimme von Netzmedien-Redaktor und Webinar-Host Coen Kaat, um ein neues Intro zu erstellen. So wurde Kraft kurzerhand zum "bestaussehendsten Hacker, den ich je gesehen habe", wie die gefälschte Stimme des Hosts sagte. Diese Technologie könnte auch den Enkeltrickbetrug auf ein neues Level heben. Künftig könnte es sein, dass man "effektiv mit einer Stimme angerufen wird, die einem bekannt vorkommt", erklärte Kraft.

Das Knacken von Admin-Konten mittels Brute-Force-Angriffen lasse sich bereits heute relativ gut automatisieren. KI könnte den Prozess noch stärker optimieren, indem sie beispielsweise Listen mit möglichen Passwörtern erstellt, die auf bestimmte Opfer zugeschnitten sind. "Diese Listen könnten vielleicht auch im Darknet geleakte Passwörter der Opfer oder deren Social-Media-Aktivitäten miteinbeziehen", sagte Kraft. Indem sie Informationen und Zugangsdaten sammelt, könnte KI den Angreifern helfen, sich lateral in einem Netzwerk auszubreiten.

Ferner könnte KI auch unerfahrene Entwickler dabei unterstützen, eine Malware so zu programmieren, dass sie die vorhandenen Endpoint-Detection-and-Response-Lösungen umgeht. Die Kommunikation zwischen Opfern und Cyberkriminellen läuft bereits heute teilweise über Chat-Tools. Künftig könnten Chatbots potenziell diese Aufgabe übernehmen. Und schliesslich ist es gemäss Kraft auch denkbar, dass eine KI die Verschlüsselung der infizierten Rechner vollautomatisiert durchführt. Dabei könne sie auch darauf achten, dass dies zunächst in den Bereichen geschieht, in denen es weniger auffällt, bevor der Schädling nach und nach in empfindlichere Bereiche vordringt.

Mit KI-Tools wird die Bandbreite von Cyberangriffen grösser, die auch Menschen ohne technologisches Know-how ausführen können. "Diese KI-Tools sind aktuell noch verhältnismässig teuer", sagte Kraft. "Sie werden aber immer billiger und teilweise auch leichter zugänglich." Somit sinke die Hürde für die Angreifer, während die Möglichkeiten zunähmen.

Wo und wie die Angreifer während einer Cyberattacke KI hätten einsetzen können. (Source: Yves Kraft, Oneconsult)

Wo und wie die Angreifer während einer Cyberattacke KI hätten einsetzen können. (Source: Yves Kraft, Oneconsult)

Die Angreifer werden schneller von KI profitieren

Nachdem Yves Kraft aufgezeigt hatte, wovor man sich schützen muss, erklärte Alexander Peters, wie man sich schützen kann. Peters ist Senior Manager des Sales Engineers Teams bei Mimecast. Peters zitierte zunächst aus dem Global Cybersecurity Outlook 2024 des WEF. Gemäss einer Umfrage in der Studie gehen 55,9 Prozent der Befragten davon aus, dass vor allem die Angreifer in den nächsten zwei Jahren von generativer KI profitieren werden. Lediglich 8,9 Prozent waren der Meinung, dass diese Technologie der Cyberabwehr dienlicher sein wird. Die restlichen 35,1 Prozent antworteten, dass beide Seiten die Waage halten werden. "Die Angreifer werden das wahrscheinlich erstmal schneller umsetzen können", sagte Peters.

Aber auch die Cyberabwehr kann und soll diese Tools nutzen, wie Peters sagte. Der Faktor Mensch bleibe jedoch wichtig. In seiner Präsentation verglich er KI mit einer Fahrerassistenz. Ein Werkzeug, das die Produktivität und die Fähigkeiten von Personen erhöht – diese aber nicht ersetzt. "Security kann nicht nur durch Technologie gelöst werden. Die Einbeziehung der User ist unheimlich wichtig."

Bisherige Security-Technologien sollen ebenfalls durch KI ergänzt, aber nicht ersetzt werden. Peters nannte zwei Beispiele, wie so eine Kombination von klassischen Technologien mit KI aussehen könnte. Beim ersten Beispiel ging es darum, Fälle von Business E-Mail Compromise beziehungsweise CEO Fraud zu erkennen. Also um betrügerische E-Mails, die angeblich vom CEO kommen, und die versuchen, den Empfänger beispielsweise zu einer Geldüberweisung zu bewegen. So könne man etwa automatisch den Namen des Absenders und dessen E-Mail-Adresse untersuchen. So lässt sich feststellen, ob externe Adressen versuchen, sich als Mitarbeitende auszugeben.

Scammer arbeiten auch gerne mit Sonderzeichen und anderen Tricks in den Absender-URLs, damit diese wie die Domain der attackierten Firma aussehen. Diese Tricks lassen sich ebenfalls automatisiert entlarven, wie Peters erklärte. So eine Analyse könnte auch die Domains der Partnerfirmen in der Lieferkette abdecken. Da Unternehmen zunehmend über eben diese Zulieferer kompromittiert werden.

Social Graphing, natursprachliche Analysen, visuelle ­Überprüfungen

"Und das ist alles noch gar nicht gross KI-basiert", sagte Peters. Künftig sollen auch natursprachliche Analysen der E-Mails sowie Social-Graphing-Elemente einfliessen. Bei Letzterem erhalten E-Mail-Adressen einen Reputationswert, basierend darauf, wie oft man mit ihnen kommuniziert und wie oft Probleme mit E-Mails von dieser Adresse festgestellt werden. Die Hinweise der KI könnten den Usern in Form von dynamischen Bannern eingeblendet werden. "Im Idealfall werden gefährliche E-Mails automatisch aus dem Postfach entfernt, sodass man sie gar nicht mehr ansehen muss."

Im zweiten Beispiel in seiner Präsentation ging es um die Analyse von Hyperlinks. Diese sollten idealerweise schon geprüft werden, bevor man auf den Link klickt. Eine Möglichkeit, wie KI bei der Überprüfung von Websites helfen könne, ist eine visuelle Analyse der Site. So könnte die KI etwa erkennen, dass die Website Daten mittels einer Eingabemaske fordert, aber dass das darin eingebettete Firmenlogo nicht mit der URL übereinstimmt.

"Intelligenz kommt aber auch aus dem Zusammenspiel verschiedener Lösungen", sagte Peters und kam damit auf das Ökosystem zu sprechen, in dem sich auch die Security-Lösungen des Anbieters befinden. Indem man verschiedene Produkte von unterschiedlichen Securityspezialisten verknüpft, kann man die Sicherheit für die User erhöhen. So könne man etwa das E-Mail-Programm mit der Identity-and-Access-Management-Lösung verknüpfen, sodass automatisch eine Neuanmeldung ausgelöst werde, falls man schädlichen Code im Postfach finde.

Yves Kraft, Head of Cyber ­Security Academy, Oneconsult, Alexander Peters, Senior ­Manager des Sales Engineers Teams, Mimecast, und Coen Kaat, stv. Chefredaktor «IT-Markt» und Swisscyber­security.net, Netzmedien (v. l. oben; Source: Screenshot / Netzmedien))

Yves Kraft, Head of Cyber ­Security Academy bei Oneconsult, Alexander Peters, Senior ­Manager des Sales Engineers Teams bei Mimecast, und Coen Kaat, stv. Chefredaktor "IT-Markt" und Swisscyber­security.net bei Netzmedien. (v. l. oben; Source: Screenshot / Netzmedien)

Mundart vs. Voice Cloning in der Diskussionsrunde

Zum Abschluss des Webinars kam das Publikum zu Wort und konnte Fragen stellen. Einer der Teilnehmenden wollte beispielsweise wissen, ob Schweizerdeutsch vor Voice Cloning schütze. "Ich würde das pauschal mit 'Nein' beantworten", antwortete Kraft. Es sei grundsätzlich möglich, auch Schweizer Dialekte in ein Trainingsmodell zu packen, um eine KI damit zu trainieren. Peters stimmte zu. "Wenn man ein System mit nur einer Sprache oder einem Dialekt trainiert hat, ist es nicht so gut in der Lage, etwas Neues zu produzieren", sagte er. Deshalb sei der Output immer ein Ergebnis dessen, womit man das System lernen lässt.

Eine weitere Person im Publikum wollte wissen, wie man in Zukunft Leute schulen kann, durch KI erstellte Fälschungen zu erkennen – und ob der Moderator echt oder ein Deepfake war (Ja, der Moderator war echt, Anm. d. Red.). Es werde in der Tat immer schwieriger, sagte Kraft, weil die KI-Modelle immer raffinierter würden. Die verschiedenen KI-Anbieter seien aber daran, KI-generierte Inhalte zu brandmarken – etwa mit Wasserzeichen oder anderen Erkennungsmechanismen. "Da ist aber auch sehr viel Aufklärung nötig", ergänzte Peters. "Man sieht eine Tendenz hin zu stärkeren und strikteren Regularien: Wer darf Deepfakes wie kreieren? Man merkt, dass man versucht, das Thema zu adressieren, aber man hat die richtige Lösung noch nicht." Die Resilienz hänge jedoch mit dem Bewusstsein um diese Risiken zusammen.

Im Laufe der Diskussion kam auch die Frage auf, ob die "Vintage-Anti-Virus-Lösung" ausgedient habe und man künftig nur noch personalisierte Security-Bots nutzen werde. "Unter Umständen schon", antwortete Kraft. "Die signaturbasierte Erkennung wird mehr oder weniger verschwinden oder nur noch eine Nebenkomponente sein." Die heuristische Erkennung und die Verhaltensanalyse funktionieren gemäss ihm viel zuverlässiger. Denn signaturbasiert kann man nur diejenigen Bedrohungen blockieren, deren Signatur man bereits kennt. "Man darf aber nicht vergessen, dass KI-Methoden sehr viel Rechenleistung beanspruchen", warf Peters ein. "Wenn man mit klassischen Legacy-Lösungen zumindest eine Vorfilterung machen kann, ist das schonmal nicht schlecht." Daher – hier waren sich beide Experten einig – bedarf es auch künftig einer mehrschichtigen Cyberabwehr. Versagt eine Verteidigungslinie, wird die Bedrohung an der nächsten aufgehalten.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal lesen Sie täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
8B6e2ipo