print preview Zurück zur Übersicht Startseite

Automatische Erkennung von Fake News durch Künstliche Intelligenz?

Noch nie war es so einfach, gezielt und flächendeckend Falschinformationen zu verbreiten wie im Zeitalter der Sozialen Medien. Um dieser Entwicklung entgegenzuwirken, haben Wissenschaftler und Wissenschaftlerinnen des Cyber-Defence (CYD) Campus von armasuisse Wissenschaft und Technologie Forschungsprojekte lanciert, die Tools zur automatischen Erkennung von Falschmeldungen erforschen. Ziel eines dieser Projekte ist es, mittels Methoden der künstlichen Intelligenz diejenigen Image-with-text Memes zu identifizieren, die potenziell Fehlinformationen verbreiten.

06.10.2021 | Dr. Raphael Meier, Wissenschaftlicher Projektleiter, Cyber-Defence Campus

Eine Tastatur auf welcher lediglich die Buchstaben F, A, K und E zu sehen sind und somit FAKE steht.

Desinformationskampagnen und Meinungsbildung

Staatliche und nichtstaatliche Desinformationskampagnen können sich an die gesamte oder an spezifische Teile der Gesellschaft richten, um sie bezüglich eines Themas zu täuschen oder zu verwirren. Unterschiedliche Akteure wie ausländische Nachrichtendienste, politische Parteien oder Lobbys können sie als Mittel einsetzen, um den gesellschaftlichen Diskurs in eine gewünschte Richtung zu lenken und ihre eigenen Interessen durchzusetzen. Desinformationskampagnen sind kein neues Phänomen. Der Kalte Krieg dient als gutes Beispiel, da die involvierten Staaten irreführende Informationen, Fälschungen oder Propagandamaterial verbreiteten.

Falschmeldungen in den Sozialen Medien

Der Begriff «Fake News» hat die gegenwärtige Medien- und Politiklandschaft stark geprägt. Die Sozialen Medien ermöglichen eine massive Verbreitung und Verstärkung der ins Netz gestellten Nachrichten. In einer gezielten Desinformationskampagne können sogenannte Social Bots und Cyborgs die Falschinformationen teilen und so ein wachsendes Netzwerk an realen Personen erreichen. Als Social Bots werden automatisierte Programme bezeichnet, die z. B. auf bestimmte Hashtags mit einer vorab programmierten Antwort reagieren und bestimmte Inhalte in Sozialen Medien teilen. Sie wirken wie übliche Benutzerkonten von Personen oder Unternehmen mit einem Profilbild, Beiträgen und einem interaktiven Netzwerk. Cyborgs sind teilautomatisierte Benutzerkonten, die von Menschen betrieben werden und damit über ein authentischeres Auftreten als Bots verfügen. Durch diese Nutzer-Interaktionen wird eine Illusion von Wahrheit bezüglich der propagierten Falschinformation erzeugt.

Durch den technologischen Fortschritt sind Falschinformationen in sehr unterschiedlichen Erscheinungsformen im Netz zu finden. Bekannte Beispiele der visuellen Desinformation sind sogenannte Deepfakes und Shallowfakes. Diese unterscheiden sich wesentlich in der Art ihrer Herstellung. Deepfakes sind veränderte oder gefälschte Medieninhalte wie Videos, Bilder oder Audioaufnahmen, die mit Hilfe von Künstlicher Intelligenz bzw. Deep-Learning Methoden manipuliert wurden. Shallowfakes hingegen werden mit Standard-Bildbearbeitungsprogrammen wie Photoshop erstellt. Angesichts der Dichte an Falschinformationen in den Sozialen Medien und der Qualität der manipulierten Inhalte, sind Gegenmassnahmen notwendig, um die irreführenden Informationen möglichst automatisiert erkennen zu können.

Eine Comicfigur mit kritischem Blick. Darüber steht: "Was ist ein IWT Meme?"
Beispiel eines Bild-mit-Text (im Englischen Image-with-Text, kurz IWT) Memes.

CYD Forschungsprojekte zur Identifikation von visueller Desinformation

Mit dem Ziel den öffentlichen Diskurs zu schützen, sind Wissenschaftler/innen des CYD Campus bestrebt, im Rahmen von Forschungsprojekten verschiedene Tools zu entwickeln, die bei der automatischen Erkennung von gefälschten Medieninhalten im Netz helfen können. Raphael Meier, Wissenschaftlicher Projektleiter beim CYD Campus, forscht an der Erkennung von sogenannten Bild mit Text (englisch: Image with Text-IWT) Memes. Diese Internet Memes dienen als Medium zur Verbreitung von Ideen, gestützt auf einer Kombination von Bild und Text, und zeichnen sich durch ihre charakteristische virale Verbreitung aus. Sie sind als Forschungsgegenstand besonders interessant, weil sie ein wirksames Mittel zur Beeinflussung von Online-Narrativen sind und daher häufig in Desinformationskampagnen eingesetzt werden.

Der erste Schritt bei der Abwehr von Meme-gesteuerten Desinformationen besteht darin, sie von anderen in Sozialen Medien zahlreich verfügbaren Bilddaten zu unterscheiden. Zu diesem Zweck wurde ein Algorithmus entwickelt, der eine automatische Klassifizierung von IWT-Bildern im Vergleich zu Nicht-Meme-Bildern vornimmt (z.B. Ferienfotos, Screenshots, etc.). Konkret beruht der Algorithmus auf sogenannten Convolutional Neural Networks, die dem Feld des Deep Learnings zuzuordnen sind. Die Methode wird auf verschiedenen IWT-Meme und Nicht-Meme-Datensätzen trainiert und kann dadurch eine binäre Klassifikation von neu empfangenen Bilddaten in die Kategorien IWT-Meme bzw. Nicht-Meme-Bild vornehmen. Durch eine anschliessende Charakterisierung des Inhalts und der Nutzer/innen der so detektierten IWT-Memes zielt das Forschungsprojekt in Zukunft darauf ab, diejenigen Memes herausfiltern zu können, bei denen es sich möglicherweise um visuelle Desinformation handelt.

Dazu soll zuerst der Inhalt des IWT-Memes analysiert werden. Bei der Ermittlung des Inhalts werden durch die Bestimmung des Themas und der Emotionalität des Inhalts Rückschlüsse darauf gezogen, ob es sich um Desinformation handeln könnte oder nicht. Desinformation beinhaltet häufig Themen, welche sozial spaltend wirken und damit verbunden negative Gefühle (z.B. Wut) beim Betrachter oder der Betrachterin verstärken können. Außerdem wird eine Charakterisierung der Verwender/innen der Memes angestrebt. Dabei wird der Frage nachgegangen, von wem das IWT-Meme verbreitet wird. Handelt es sich allenfalls um eine verdächtige Verbreitung der IWT-Memes durch Social Bot-ähnliche Accounts? Und wie kann die Absicht des Nutzers/der Nutzerin hinter der Verbreitung beurteilt werden? Lässt sich beispielsweise hinter der Verbreitung des Memes eine wahrscheinliche Absicht zur Diskreditierung einer politischen Person oder zur Spaltung von Bevölkerungsgruppen erkennen, so kann dies ein Indiz für das Vorliegen von Desinformation sein. Diese automatischen Analysemethoden können die Menge der auszuwertenden Bilddaten in Open-Source Intelligence Aufträgen drastisch reduzieren und ermöglichen so eine schnellere Bearbeitung von sicherheitsrelevanten Desinformationskampagnen durch Analysten und Analystinnen.

In Desinformationskampagnen werden Bild- und Textinhalte des IWT Memes so angepasst, dass dadurch ein strategischer Narrativ gestützt und spezifische Präferenzen des Zielpublikums angesprochen werden. Dabei wird häufig auf sozial polarisierende Themen zurückgegriffen. Eine Auswahl an IWT Memes, die in Desinformationskampagnen eingesetzt wurden, sind im Bericht von DiResta et al. der Universität Stanford ersichtlich.

Bericht Universität Stanford (auf Englisch)