EPFL-Forschende entwickeln Propaganda-Detektor für Telegram
Forschende der EPFL haben zusammen mit Kollegen aus Deutschland eine Methode entwickelt, um Propaganda-Accounts auf Telegram zu identifizieren. Das Verfahren basiert auf Analysen von Kommentarmustern und erreicht eine Trefferquote von 97,6 Prozent.

Forschende des Security and Privacy Engineering Laboratory (Spring) der Eidgenössischen Technischen Hochschule Lausanne (EPFL) haben in Zusammenarbeit mit dem Max-Planck-Institut für Sicherheit und Privatsphäre und der Ruhr-Universität Bochum eine Methode zur Erkennung von Propaganda auf dem Instant-Messaging-Dienst Telegram erarbeitet. Die Methode analysiert Kommentare in Kanälen und identifiziert systematisch verbreitete Inhalte, wie die EPFL mitteilt. Dadurch könne man Propaganda anhand eines einzigen Kommentars mit einer Trefferquote von 97,6 Prozent erkennen – 11,6 Prozent besser als eine menschliche Einschätzung.
Bestimmte Verhaltensmuster von Propaganda
Im Rahmen der Studie untersuchten die Forschenden insgesamt 13,7 Millionen Kommentare aus 13 Telegram-Kanälen, die sich auf Themen wie Politik oder Nachrichten fokussieren. Dabei hätten sich 1,8 Prozent der Kommentare als Propaganda herausgestellt. Die Mehrheit davon – in manchen Kanälen bis zu 5 Prozent aller Nachrichten – seien von einem pro-russischen Netzwerk verbreitet worden. Des Weiteren entdeckten die Forschenden auch ein kleineres pro-ukrainisches Netzwerk, wie es weiter heisst.
Gemäss der Studie reagieren die identifizierten Propaganda-Konten nicht initiativ, sondern stets auf andere Kommentare, die Begriffe wie "Putin" oder "Selenskyj" enthalten. Zudem würden sie identische Nachrichten an verschiedenen Stellen posten, teils über mehrere Kanäle hinweg, während normale Konten einzigartige Beiträge veröffentlichen.
In diesem Diagramm steht jeder Punkt für ein Telegram-Konto. Eine Linie zeigt an, dass ein Kommentar von einem anderen Konto mit dem gleichen Wortlaut geteilt wurde. Propaganda-Konten (rechts) verhalten sich dabei anders als normale Konten (links), da sie Netzwerke bilden, die immer wieder denselben Inhalt teilen. (Source: epfl.ch)
Wenig Forschung und unzureichende Moderation
Wie es weiter heisst, fehle es bisher an wissenschaftlicher Forschung zu Desinformation in Instant-Messaging-Diensten wie Telegram. Die Moderation obliegt den Betreibern von Gruppen und Kanälen, die oft manuell vorgehen oder einfache Tools nutzen. Dementsprechend variiere die Wirksamkeit: Einige Kanäle würden bis zu 95 Prozent der Propaganda entfernen, andere nur unter 20 Prozent.
"Content-Moderatoren sind nicht rund um die Uhr verfügbar, und der ständige Kontakt mit Propaganda kann die mentale Gesundheit belasten. Wir hoffen, dass unser Algorithmus künftig bei der Moderation auf Telegram hilft", lässt sich Klim Kireev, Doktorand im Spring und Erstautor der Studie, in der Mitteilung zitieren.
Apropos Propaganda: Laut einer Studie der Organisation Newsguard vom März 2025 sind ein Drittel aller KI-Chatbot-Antworten vom Prawda-Netzwerk in Moskau beeinflusst. Mehr dazu lesen Sie hier.

EPFL-Forschende entwickeln Propaganda-Detektor für Telegram

Diese Schwerpunkte setzt Jura in seiner Digitalstrategie

Oracle integriert Googles Gemini-Modelle

US-Technologie dominiert zwei Drittel der Schweizer Firmen

Swisscom gründet Sparte für Videoüberwachung

Trend Micro lanciert KI-basiertes SIEM

Die Welt aus der Sicht eines Segelschiffs

KI-Suche listet betrügerische Telefonnummern

Lenovo verkauft Medion-Anteile
