EPFL-Forschende entwickeln Propaganda-Detektor für Telegram
Forschende der EPFL haben zusammen mit Kollegen aus Deutschland eine Methode entwickelt, um Propaganda-Accounts auf Telegram zu identifizieren. Das Verfahren basiert auf Analysen von Kommentarmustern und erreicht eine Trefferquote von 97,6 Prozent.
Forschende des Security and Privacy Engineering Laboratory (Spring) der Eidgenössischen Technischen Hochschule Lausanne (EPFL) haben in Zusammenarbeit mit dem Max-Planck-Institut für Sicherheit und Privatsphäre und der Ruhr-Universität Bochum eine Methode zur Erkennung von Propaganda auf dem Instant-Messaging-Dienst Telegram erarbeitet. Die Methode analysiert Kommentare in Kanälen und identifiziert systematisch verbreitete Inhalte, wie die EPFL mitteilt. Dadurch könne man Propaganda anhand eines einzigen Kommentars mit einer Trefferquote von 97,6 Prozent erkennen – 11,6 Prozent besser als eine menschliche Einschätzung.
Bestimmte Verhaltensmuster von Propaganda
Im Rahmen der Studie untersuchten die Forschenden insgesamt 13,7 Millionen Kommentare aus 13 Telegram-Kanälen, die sich auf Themen wie Politik oder Nachrichten fokussieren. Dabei hätten sich 1,8 Prozent der Kommentare als Propaganda herausgestellt. Die Mehrheit davon – in manchen Kanälen bis zu 5 Prozent aller Nachrichten – seien von einem pro-russischen Netzwerk verbreitet worden. Des Weiteren entdeckten die Forschenden auch ein kleineres pro-ukrainisches Netzwerk, wie es weiter heisst.
Gemäss der Studie reagieren die identifizierten Propaganda-Konten nicht initiativ, sondern stets auf andere Kommentare, die Begriffe wie "Putin" oder "Selenskyj" enthalten. Zudem würden sie identische Nachrichten an verschiedenen Stellen posten, teils über mehrere Kanäle hinweg, während normale Konten einzigartige Beiträge veröffentlichen.

In diesem Diagramm steht jeder Punkt für ein Telegram-Konto. Eine Linie zeigt an, dass ein Kommentar von einem anderen Konto mit dem gleichen Wortlaut geteilt wurde. Propaganda-Konten (rechts) verhalten sich dabei anders als normale Konten (links), da sie Netzwerke bilden, die immer wieder denselben Inhalt teilen. (Source: epfl.ch)
Wenig Forschung und unzureichende Moderation
Wie es weiter heisst, fehle es bisher an wissenschaftlicher Forschung zu Desinformation in Instant-Messaging-Diensten wie Telegram. Die Moderation obliegt den Betreibern von Gruppen und Kanälen, die oft manuell vorgehen oder einfache Tools nutzen. Dementsprechend variiere die Wirksamkeit: Einige Kanäle würden bis zu 95 Prozent der Propaganda entfernen, andere nur unter 20 Prozent.
"Content-Moderatoren sind nicht rund um die Uhr verfügbar, und der ständige Kontakt mit Propaganda kann die mentale Gesundheit belasten. Wir hoffen, dass unser Algorithmus künftig bei der Moderation auf Telegram hilft", lässt sich Klim Kireev, Doktorand im Spring und Erstautor der Studie, in der Mitteilung zitieren.
Apropos Propaganda: Laut einer Studie der Organisation Newsguard vom März 2025 sind ein Drittel aller KI-Chatbot-Antworten vom Prawda-Netzwerk in Moskau beeinflusst. Mehr dazu lesen Sie hier.
Basel-Stadt kann E-Voting-Stimmen nicht auslesen
Konsortium entwickelt Open-Source-Alternative zu Google Play Integrity
Selbsthilfegruppe bei Frauenproblemen - speziell für Hobbits und Zwerge
Wie Technologien zur Barrierefreiheit im digitalen Raum beitragen
Der KI-Boom fordert die Schweizer Datacenter-Branche heraus
Ständerat fordert schärfere Regeln für Temu, Shein und Co.
LED-Screens entwickeln sich von Premiumlösungen zu strategischen Systemen
Wie Technologie Gehörlose unterstützt, Barrieren zu überwinden
Ceconomy-CEO tritt zurück