Was ist zu tun, wenn man auf Online-Inhalte (Bilder, Audio, Video oder Text) stößt, bei denen man den Verdacht hat, dass sie zur Verbreitung von Desinformationen von einer künstlichen Intelligenz erzeugt wurden? Die Faktenchecker:innen des EDMO-Netzwerks haben einige Tipps zur Erkennung von KI-generierten Inhalten zusammengestellt.
Eine kurze Checkliste
- Überprüfen Sie traditionelle Medien: Werden Inhalte von anderen zuverlässigen und unabhängigen Quellen bestätigt?
- Überprüfen Sie die Quelle des Inhalts auf Warnzeichen: Handelt es sich z.B. um ein anonymes Konto, das erst vor wenigen Tagen erstellt/aktiviert wurde? Handelt es sich um ein Konto, das immer wieder dieselbe Art von KI-generierten Inhalten verbreitet? Handelt es sich um ein Konto, das in seinen Kommentarbereichen keine Interaktion zeigt?
- Die EDMO-Faktenchecker:innen empfehlen, Tools zur Erkennung von KI-generierten Inhalten zu verwenden. Sie machen aber auch darauf aufmerksam, dass man sich nicht ausschließlich auf diese verlassen sollte: die Tools sind nicht fehlerfrei.
KI-generierte Bilder
- Überprüfen Sie das Bild auf Details, die darauf hindeuten, dass es nicht real ist, wie Hände, Finger, Augen, Schattierungen, Formen, Farben, Hintergrunddetails usw. Die derzeitige Technologie macht oft Fehler bei der Erstellung dieser Details.
- Nutzen Sie in Suchmaschinen die Bilder-Rückwärtssuche (eine Anleitung finden Sie auch auf der GADMO-Website), um die ursprüngliche Quelle eines Bildes herauszufinden, d.h. wann und wo es zum ersten Mal online erschienen ist.
KI-generiertes Audio
- Hören Sie sich das Audiomaterial genau an und achten Sie auf Wortwahl, Intonation, Atemzüge, unnatürliche Pausen und andere Elemente, die Anomalien aufweisen können.
KI-generiertes Video
- Überprüfen Sie die Qualität des Videos und achten Sie auf Lippensynchronität, unscharfe Konturen, unrealistische Merkmale usw., um Veränderungen zu erkennen.
- Überprüfen Sie die Synchronisierung von Audio und Video, um das Hinzufügen eines gefälschten Tons zu einem echten Video zu erkennen.
- Verwenden Sie auch hier die Bilder-Rückwärtssuche, um das Originalvideo zu finden.
KI-generierter Text
- Gehen Sie nicht davon aus, dass die Antworten von Large Language Models (LLMs) korrekt und wahrheitsgetreu sind: ihnen fehlen oft die notwendigen Hintergrundinformationen, um auf dem neuesten Stand zu sein. Außerdem sind sie dafür bekannt, dass sie Fehler machen und gelegentlich Fakten aus dem Nichts erfinden (die sogenannten „Halluzinationen“).