Kaspersky-Prognose

Deepfakes und KI prägen das Jahr 2026

Uhr
von Chiara Binder und dwi

Für 2026 prognostiziert der Cybersecurity-Anbieter Kaspersky, dass Deepfakes deutlich leichter zu erstellen sein werden und durch verbesserte Audioqualität realistischer wirken. Gleichzeitig wird die Grenze zwischen künstlich und menschlich erzeugten Inhalten weiter verschwimmen.

(Source: ArtemisDiana / stock.adobe.com)
(Source: ArtemisDiana / stock.adobe.com)

Im Jahr 2026 sollen nicht nur Deepfakes realistischer werden, sondern auch KI-gestützte Angriffe und offene Modelle Unternehmen und private User zunehmend gefährden. Die Bedrohungslage verschärft sich demnach durch verbesserte Sprachmodelle und generative KI, wie das Cybersecurity-Unternehmen Kaspersky prognostiziert.

Deepfakes für alle

Durch die zunehmende Verbreitung von Deepfakes steige auch die Vielfalt an Formaten, in denen Deepfakes auftauchen. Unternehmen würden ihre Mitarbeitenden deswegen vermehrt gegen solche Gefahren schulen. Dadurch etablieren sich Deepfakes vermehrt auf der Sicherheitsagenda, und es entsteht laut Kaspersky ein Bedarf an systematischen Schulungen und klaren internen Richtlinien. Auch Verbraucherinnen und Verbrauchern sollen laut dem Cybersicherheitsanbieter ein wachsendes Bewusstsein für gefälschte Inhalte und ein besseres Verständnis entwickeln.

Doch nicht nur die visuelle Qualität von Deepfakes nimmt zu, auch die Tonqualität wird immer realistischer, wie Kaspersky schreibt. Zugleich werden die Tools zur Erstellung solcher Inhalte immer benutzerfreundlicher - selbst Laien könnten damit Deepfakes mittlerer Qualität erzeugen. Kaspersky prognostiziert daher, dass die durchschnittliche Qualität weiter steigen und Cyberkriminelle Deepfakes verstärkt nutzen werden.

Einheitliche Kriterien zur Kennzeichnung von KI-generierten Inhalten gebe es derzeit nicht. Kaspersky geht deshalb davon aus, dass neue technische wie auch regulatorische Initiativen entstehen werden, die eine Lösung für die verlässliche Kennzeichnung suchen.

Fortschreitende Technik steigert auch Missbrauchspotenzial

Was den Echtzeit-Austausch mit Deepfakes betrifft, bleiben weiterhin fortgeschrittene technische Fähigkeiten erforderlich, wie der Cybersicherheitsdienstleister weiter schreibt. Es komme daher voraussichtlich nicht zu einer breiten Nutzung, zielgerichtete Angriffe mit dieser Technik seien jedoch zu erwarten. Durch moderne Techniken steige zudem das Risiko, dass die Fälschungen besonders realitätsnah wirken. 

Auch offene KI-Modelle holen laut Prognose zunehmend zu geschlossenen Systeme auf. Dies schaffe mehr Missbrauchspotenzial: Open-Source-Systeme würden sich im Funktionsumfang schnell den geschlossenen Modellen annähern, verfügen jedoch nicht über vergleichbare Kontrollmechanismen und Schutzmassnahmen. Demnach können beide Modelltypen für unerwünschte oder schädliche Zwecke eingesetzt werden.

Verschwimmende Grenzen durch ständige Nutzung

Da KI bereits für Betrugsmails und Phishing-Websites wie auch für Markenauftritte verwendet wird, seien sich Konsumentinnen und Konsumenten synthetische Inhalte gewohnt. KI-generierte Materialen wirken vertraut und "normal", wie Kaspersky weiter schreibt. Das mache es schwierig, den Unterschied zwischen echten und gefälschten Inhalten zu erkennen.

Cyberkriminelle nutzen laut dem Cybersicherheitsanbieter KI in allen Schritten ihres Angriffs - von der Vorbereitung bis hin zur Schwachstellensuche. Die Kriminellen würden gleichzeitig versuchen, Hinweise auf den KI-Einsatz zu verbergen, um die Analyse von Angriffen mithilfe von der Technologie zu erschweren.

KI verschiebt den Fokus in Sicherheitszentren

Künftig soll KI laut Kaspersky die Arbeit von SOC-Teams in Sicherheitszentren unterstützen - etwa beim Scannen von Infrastrukturen, der Identifikation von Schwachstellen und dem Sammeln von Kontextinformationen für Untersuchungen. Dadurch verschieben sich die Aufgaben: Routinearbeiten, die früher manuell erledigt wurden, übernehme die KI, während sich die SOC-Teams auf Entscheidungen auf Basis der KI-aufbereiteten Informationen konzentrieren würden. Ausserdem sollen Sicherheits-Tools vermehrt über natürliche Sprache bedienbar sein.

 

Trend Micro kommt übrigens in einem Sicherheitsprognosebericht für 2026 zum Schluss, dass das kommende Jahr den Übergang zur vollständig automatisierten Cyberkriminalität markieren wird. Hier können Sie mehr zu dieser Prognose lesen.

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
PR3Ya6zA