CoP Monitor 2024 veröffentlicht: Verstärkte Maßnahmen der großen Plattformen reichen in Wahlkampfzeiten nicht aus

Deepfakes, die politische Gegner:innen diffamieren, und Aufrufe zur Stimmabgabe auf Plattformen, auf denen politische Wahlwerbung eigentlich verboten ist: Im Superwahljahr 2024 fanden sich einige Belege dafür, dass die großen digitalen Plattformen zu wenig gegen Falsch- und Desinformation vorgehen, obwohl sie entsprechende Richtlinien angekündigt haben. Zu diesem Ergebnis kommt der zweite CoP Monitor des German-Austrian Digital Media Observatory (GADMO). Der Report fokussiert dieses Jahr die Europawahl sowie die Landtagswahlen in Sachsen und Thüringen 2024 und beleuchtet die Wirksamkeit der Maßnahmen von Meta (Facebook und Instagram) und TikTok gegen politisch motivierte Desinformation im deutschsprachigen Raum.

Ein Forschungsteam des Instituts für Journalistik der TU Dortmund unter Leitung von Dr. Susanne Wegner hat die Selbstverpflichtungserklärungen der Plattformen im Rahmen des Code of Practice (CoP) geprüft und diese mit realen Desinformationsfällen verglichen, die von den GADMO-Faktencheck-Organisationen CORRECTIV, dpa, AFP und APA identifiziert wurden. Parallel wurden in einem Seminarprojekt am Institut für Journalistik der TU Dortmund die Gesamtstrategien der Social-Media-Auftritte der sechs großen Parteien und ihrer Spitzenkandidat:innen analysiert, um deren Umgang mit Wahlwerbung zu verstehen.

Der Code of Practice on Disinformation (CoP) ist eine von der EU Kommission initiierte Selbstverpflichtung, die u.a. die großen Technologiefirmen (Google, Meta, Microsoft, TikTok) unterzeichnet haben. Darin sind zahlreiche Regeln vorgesehen, dass und wie Plattformen gegen Des- und Falschinformationen vorgehen sollten. Dazu gehören z.B.  Transparenzvorschriften, die Durchsetzung von Community-Richtlinien oder die Pflicht zur Zusammenarbeit mit Faktencheckern und Forschenden. Die erste Fassung des CoP wurde 2018 veröffentlicht und anschließend überarbeitet. Die aktuell gültige Fassung wurde 2022 veröffentlicht und enthält 128 konkrete Maßnahmen gegen Des- und Falschinformationen. Hier finden Sie den ganzen Text des Codes.

Der Bericht zeigt: Trotz klarer Fortschritte der Plattformen – darunter Richtlinien zur Zusammenarbeit mit Faktenchecker:innen und die Kennzeichnung von KI-generierten Inhalten – bleiben große Herausforderungen bestehen. „Die Wirksamkeit der Maßnahmen ist gerade in Wahlkampfzeiten begrenzt, vermutlich, weil den Bemühungen der Plattformen strukturelle Probleme zu Grunde zu liegen scheinen“, sagt Forschungsleiterin Dr. Susanne Wegner.

Herausforderungen und problematische Muster im Wahlkampf

Die Analyse identifizierte folgende problematische Muster im Umgang der Plattformen mit Desinformation:

  • Missbrauch des Themas Migration und Asyl: Sowohl im Europawahlkampf als auch in den Landtagswahlkämpfen war das Wahlkampfthema zentraler Auslöser für Desinformation; vor allem die AfD nutzte das Thema strategisch – sie setzte gezielt KI-basierte Inhalte ein, um Feindbilder zu schaffen und die Gesellschaft zu spalten.
  • Instrumentalisierung von Gewaltereignissen: Die Messerattacken in Mannheim (im Vorfeld der Europawahl) und Solingen (im Vorfeld der Landtagswahlen) wurden auch länderübergreifend genutzt, um Ängste zu schüren und Stimmung gegen Migrant:innen zu erzeugen.
  • Manipulationsvorwürfe im Wahlprozess: Bei allen drei untersuchten Wahlen kursierten Vorwürfe über angebliche Wahlmanipulation, vor allem unterstützt von Anhänger:innen der AfD, die die Integrität der Wahlen in Frage stellten und unbelegte Behauptungen über Wahlbetrug verbreiteten.
  • Unzulässige politische Werbung: Uneinheitliche Richtlinien von Meta und TikTok führten zu Intransparenz und erschwerten die Erkennung von politischer Werbung. TikTok verbietet zwar politische Werbung, die Plattform wurde von Politiker:innen und Partei-Anhänger:innen dennoch für Wahlkampfzwecke genutzt.
Empfehlungen zur Stärkung der Maßnahmen gegen Desinformation

Der GADMO-Report schließt mit konkreten Empfehlungen an die Plattformen und die unterstützenden Institutionen, Maßnahmen im Kampf gegen Desinformation zu verbessern. Insbesondere mit Blick auf die vorgezogenen Neuwahlen in Deutschland muss die emotionalisierende Dimension von Desinformation stärker in den Blick genommen und die Mechanismen zur Erkennung irreführender Muster verbessert werden. Nötig dazu ist eine einheitliche Definition von politischer Werbung für alle Plattformen. Grundsätzlich überarbeitet werden muss das Meldeverfahren für Desinformation und den Missbrauch von Wahlwerbung.

Da davon ausgegangen werden muss, dass immer mehr Politiker:innen die Social Media Plattformen für ihren Wahlkampf nutzen und Studien zeigen, dass junge Menschen Schwierigkeiten haben, glaubwürdige von unglaubwürdigen Inhalten zu unterscheiden, muss der Kampf gegen Desinformation auf allen Ebenen stärker verfolgt werden.

 

Der CoP Monitor 2023 kann hier heruntergeladen werden.

 

Falls Sie Fragen zum CoP Monitor oder der Arbeit von GADMO im Bereich Plattform-Beobachtung haben, erreichen Sie uns unter [email protected].

 

 

Nach oben scrollen