Forschung & Entwicklung
Startseite -> Forschung & Entwicklung
Desinformation verstehen und bekämpfen
Desinformationen sind kein Versehen. Sie werden gezielt über digitale Netzwerke verbreitet und enthalten zudem häufig bewusst gefälschte Texte, Bilder oder Videos. Für die Verifikation derartiger Inhalte benötigen Faktenchecker daher spezifische Kompetenzen und Werkzeuge. Wissenschaftliche Erkenntnisse können dabei unterstützen, Manipulationen zu erkennen, Kampagnen frühzeitig aufzudecken und sie letztlich wirksamer zu bekämpfen.
An diesen Herausforderungen arbeiten im GADMO-Projekt mehrere Forschungsteams: Am Austrian Institute of Technology (AIT) in Wien werden medienforensische Werkzeuge entwickelt, um Hinweise auf Fälschungen in audiovisuellen Medien zu finden. An der Technischen Universität (TU) Dortmund forscht ein interdisziplinäres Team aus Journalistik und Statistik zudem an Mustern, die bei der Verbreitung von Desinformationskampagnen entstehen, und analysiert die Themenschwerpunkte der deutschsprachigen Faktenchecks im Zeitverlauf.
Identifikation manipulierter Bilder und Videos
Ziel des Forschungsteams am AIT ist die Entwicklung von Assistenzsystemen, die in Redaktionen zur semi-automatischen Erkennung von manipulierten Inhalten genutzt werden können. Dabei stehen vor allem Bilder und Videos im Fokus sowie Ansätze, die auf lernenden Algorithmen (KI) basieren. Auf diese Weise sollen auch umfangreiche Datensätze daraufhin untersucht werden können, ob sich in ihnen Datenspuren von Manipulationen oder synthetisch erzeugten Inhalten finden lassen. Wie diese Ergebnisse verständlich und transparent kommuniziert werden können, gehört ebenfalls zum Forschungsvorhaben des AIT.
Monitoring von Desinformationskampagnen
Aufgrund des strategischen Einsatzes von Desinformationen ist davon auszugehen, dass sich ihre Verbreitungsdynamik grundlegend von derjenigen regulärer Nachrichten unterscheidet. Das interdisziplinäre Team an der TU Dortmund arbeitet mithilfe von Netzwerkanalysen und weiteren statistischen Methoden daran, diese Dynamik systematisch zu analysieren und ihre Eigenarten genauer zu beschreiben. Ziel ist es, neue Erkenntnisse zum Prozess der Verbreitung zu gewinnen sowie typische Muster zu identifizieren. Idealerweise könnte das Monitoring von Social-Media-Plattformen mithilfe dieser Ergebnisse automatisiert unterstützt werden.
Evaluation deutschsprachiger Faktenchecks
Erst seit einigen Jahren haben sich Faktenchecks in deutschsprachigen Redaktionen als eigenständiges Format herausgebildet. Das Forschungsteam an der TU Dortmund nimmt die aktuelle journalistische Praxis in den Fokus und untersucht thematische Schwerpunkte und inhaltliche Entwicklungen. Dazu evaluiert das Team den Korpus an bestehenden Faktenchecks der Projektpartner mithilfe qualitativer und quantitativer Methoden zur Analyse großer Textdatensätze. Die Evaluation soll dazu beitragen, das Format des Faktenchecks mit seinen Ausprägungen zu erfassen und Potenziale zur Optimierung der aktuellen Praxis zu ermitteln
Plattform-Beobachtung
Bei der Bekämpfung von Falsch- und Desinformation ist es wichtig, die Maßnahmen, die Plattformen dagegen ergreifen, genau zu beobachten. Und zu überprüfen, welche Auswirkungen diese Maßnahmen auf die Nutzung der Plattformen haben.
Aus diesem Grund hat die EU-Kommission im Jahr 2018 zusammen mit Stakeholdern sowie Expertinnen und Experten den Code of Practice on Disinformation veröffentlicht. Er enthält Empfehlungen für Online-Plattformen und Werbetreibende, wie sie Desinformation vermeiden und bekämpfen können. Er wurde von mehreren großen Online-Plattformen, darunter Facebook, Google und Twitter, unterzeichnet. 2022 wurde der Kodex überarbeitet und enthält nun detaillierte Verpflichtungen, wie Plattformen gegen Desinformation vorgehen und welche Informationen sie der Öffentlichkeit in diesem Rahmen bereitstellen müssen. Den gesamten Text des Code of Practice finden Sie hier.
Es ist die Aufgabe von GADMO, die Einhaltung des Kodex in Deutschland und Österreich zu überprüfen. Dafür entwickelt GADMO erst ein Framework, das voraussichtlich im April 2023 veröffentlicht wird. Das Framework beschreibt die Leitlinien, wie die Einhaltung des Kodex genau überprüft werden soll. Anhand des Frameworks werden jährlich Reports erstellt, die öffentlich zugänglich sein werden. Der erste Report erscheint voraussichtlich Ende 2023.