EPFL-Forscher entwickeln Propaganda-Erkennungsmechanismus
Eine neue Methode, die EPFL-Forscher in Zusammenarbeit mit deutschen Kollegen entwickelt haben, könnte Moderatoren im Kampf gegen Desinformation auf Telegram helfen.
Desinformationskampagnen und Propaganda finden nicht nur in den sozialen Medien statt, sondern auch in Messenger-Diensten wie WhatsApp, Telegram und Signal. Letztere wurden bisher jedoch kaum wissenschaftlich erforscht. Nun haben Forscher der EPFL und des Max-Planck-Instituts für Sicherheit und Datenschutz zusammen mit Kollegen der Ruhr-Universität Bochum eine neue Methode entwickelt, um Accounts aufzuspüren, die systematisch Propaganda in Telegram-Kanälen verbreiten.
In einigen Ländern, wie z.B. Russland und der Ukraine, ist Telegram eine der wichtigsten Informationsplattformen. Die Moderation der Inhalte auf der Plattform obliegt denjenigen, die eine Gruppe oder einen Kanal betreiben. Es gibt keine unabhängige Instanz für die Prüfung von Fakten. Die Moderatoren können in ihren Gruppen und Kanälen ihre eigenen Regeln aufstellen und entfernen unerwünschte Inhalte oft manuell. Einige Nutzer verwenden zu diesem Zweck auch Software, aber solche Tools basieren in der Regel auf sehr einfachen Prinzipien, wie z. B. der Erkennung obszöner Sprache.
Russische und ukrainische Propagandanetzwerke identifiziert
Die Forscher analysierten 13,7 Millionen Kommentare aus 13 Telegram-Kanälen, die sich mit Politik oder Nachrichten befassen. 1,8 Prozent davon entpuppten sich als Propaganda. Der Grossteil wurde von einem pro-russischen Netzwerk verbreitet, das in einigen Kanälen bis zu 5 Prozent aller Nachrichten gepostet hatte. Die Forscher entdeckten auch ein kleineres pro-ukrainisches Propagandanetzwerk.
Ihr Erkennungsmechanismus basiert auf den Antworten, die die Propaganda-Konten auf die Konten der normalen Nutzer geben. Wie die Forscher zeigten, initiieren Propaganda-Konten auf Telegram keine Unterhaltungen, sondern antworten auf Kommentare anderer Nutzer, die bestimmte Schlüsselwörter enthalten, wie z. B. Putin oder Selenski.
«Eines der auffälligsten Merkmale von Propaganda-Accounts ist, dass sie Nachrichten mit demselben Wortlaut an verschiedenen Stellen posten, manchmal auch über verschiedene Kanäle hinweg. Während reguläre Konten einzigartige Nachrichten posten, bilden Propaganda-Konten große Netzwerke, die immer wieder denselben Inhalt verbreiten», erklärt EPFL- Professorin Carmela Troncoso.
Die Forscher nutzten diese Eigenschaft, um einen automatischen Erkennungsmechanismus zu programmieren. Dieser war in der Lage, Propaganda anhand eines einzigen Kommentars mit einer Trefferquote von 97,6 Prozent zu erkennen.
Menschliche Moderation mit gemischten Erfolgen
Im Rahmen ihrer Studie untersuchte die Gruppe auch, wie effizient Moderatoren Propaganda bekämpfen. Die Ergebnisse waren von Kanal zu Kanal sehr unterschiedlich. Während es einigen Nachrichtensendern gelang, fast 95 Prozent der Propaganda zu identifizieren und zu löschen, lag die Quote bei anderen Sendern bei knapp 20 Prozent. Nach Angaben der Kanalbetreiber ist die Entfernung von Propaganda mit einem hohen manuellen Aufwand verbunden. Das neue Erkennungstool könnte sowohl den Zeit- als auch den Arbeitsaufwand erheblich reduzieren.
«Content-Moderatoren stehen nicht rund um die Uhr zur Verfügung, und wenn man ständig Propaganda ausgesetzt ist, kann das auch die psychische Gesundheit der Menschen beeinträchtigen. Deshalb hoffen wir, dass unser Algorithmus in Zukunft bei der Moderation auf Telegram helfen wird», so Klim Kireev, Doktorand an de EPFL und Erstautor der Studie.
Beitrag von: Tanya Petersen, EPFL
Bildquelle: Istockphoto