Dieses Bild von einem Mann mit fünf Kindern in Gaza wurde mit Künstlicher Intelligenz generiert

Gesenkter Blick, verstaubtes Gesicht, hinter ihm ein zerstörtes Haus. Der Mann trägt ein Baby in seinem Arm, hält ein Kind an seiner Hand und trägt drei weitere auf seinen Schultern. Das zeigt ein Bild auf X, Tiktok und Instagram, das Nutzerinnen und Nutzer dem Krieg im Nahen Osten zuordnen. Dazu heißt es auf Englisch: „So ist es, wenn man in Gaza Vater ist“, oder „sie können nirgendwo hingehen, betet für Gaza“. Das Bild teilte auch die chinesische Botschaft in Frankreich auf X. Es erreichte hunderttausende Nutzerinnen und Nutzer in Sozialen Netzwerken.

Satellitenaufnahmen dokumentieren die Zerstörung in Gaza; es gibt zahlreiches authentisches Bildmaterial und Berichte zu zivilen Opfern in Gaza und Israel seit den Terrorangriffen der Hamas und Israels Gegenangriffen. Doch das angebliche Bild aus Gaza mit dem Mann und den Kindern ist nicht echt.

X-Beitrag mit KI-generiertem Bild.
Dieses Bild zeige Menschen in Gaza, heißt es auf X. Doch das stimmt nicht, es wurde mit Hilfe von Künstlicher Intelligenz erstellt. (Quelle: X; Screenshot: CORRECTIV.Faktencheck)

Bild wurde laut Fachleuten mit Hilfe Künstlicher Intelligenz generiert

Wir haben das Zentrum für Künstliche Intelligenz (KI) und Datenwissenschaft an der Universität Würzburg um eine Einschätzung zu dem Bild gebeten. Radu Timofte, Humboldt-Professor für KI und Computer Vision an der Universität Würzburg, antwortete: „Es handelt sich um ein KI-generiertes Bild oder ein KI-manipuliertes Bild.“ Das sei an Ungereimtheiten zu erkennen, die typisch für KI-generiertes Material seien. „Auf diesem Bild kann man sehen, dass Finger und Zehen nicht in der richtigen Anzahl vorhanden sind oder seltsam aussehen.“

Ein weiteres starkes Indiz könne die schlechte Qualität eines Bildes sein, schrieb uns Timofte. „Ein Bild mit niedriger Auflösung kann die Bildartefakte [Anm. d. Red.: künstlich veränderte Bereiche], die generative KI-Methoden typischerweise erzeugen, verschleiern.“

Weitere Fachleute, darunter Siwei Lyu, Direktor des Media Forensic Lab an der Universität Buffalo und Renee DiResta, Forschungsleiterin am Stanford Internet Observatory, bestätigten gegenüber der Nachrichtenagentur AFP ebenfalls, das Bild sei KI-generiert. DiResta verwies dabei auf „die Art und Weise, wie die Figuren mit der Umgebung verschmelzen“. Hany Farid, Professor für Elektrotechnik und Computerwissenschaften an der Berkeley School of Information, nannte gegenüber der indischen Faktencheck-Redaktion Boom „den verformten Arm des Erwachsenen“ als Indiz für eine KI-Generierung. Tatsächlich sieht der linke Arm des Mannes auf dem Bild größer aus als der rechte.

Optische Unstimmigkeiten sind Indiz für KI-generierte Bilder

Mit einem genaueren Blick ist zu erkennen, dass vor allem die Zehen auf dem Bild nicht korrekt abgebildet sind: Das Baby, das im Arm des Mannes liegt, hat an einem Fuß nur drei Zehen. An anderen Füßen sind die Zehen kaum erkennbar. Auch die Füße des Jungen in der linken unteren Ecke des Bilds wirken unnatürlich; der linke Fuß ist zum Beispiel deutlich überdimensioniert im Vergleich zum rechten.

Anhand der Markierungen ist das KI-Bild als solches zu erkennen.
Dieses Bild zeige Menschen in Gaza, heißt es auf X. Doch das stimmt nicht, es wurde mit Hilfe von Künstlicher Intelligenz erstellt. (Quelle: X; Screenshot: CORRECTIV.Faktencheck)

Zudem liefert eine Bilder-Rückwärtssuche keine Belege für die Authentizität des Bildes: Unter den Suchergebnissen erscheinen ausschließlich Beiträge in Sozialen Netzwerken, die es ohne weitere Quellenangabe verbreiten.

Können Tools solche KI-generierten Bilder erkennen? Timofte von der Universität Würzburg schrieb uns: Wenn die Quelle des Bildes und die Art und Weise, wie das Bild erstellt wurde, unbekannt seien, dann gebe es aktuell keine zuverlässigen Werkzeuge, die zwischen Fiktion und Wirklichkeit unterscheiden könnten. So auch die Einschätzung der Fachleute für KI- und Bilderkennung des Austrian Institute of Technology: „Die Entwicklung solcher Tools ist eine anspruchsvolle Aufgabe, da die rasanten Fortschritte der KI-Technologie bei der Generierung realistischer Bilder es immer schwieriger machen, zwischen echten und generierten Inhalten zu unterscheiden.“

Ursprung des KI-Bildes mit Mann und fünf Kindern unklar 

Die ersten Beiträge mit dem KI-Bild, die wir auf X fanden, stammen mehrheitlich von Accounts mit Beiträgen in persischer Sprache. Unklar ist aber, wer der Urheber des KI-Bildes ist. Wir fragten bei der Facebook-Seite mit dem Namen „Zentralrat der Palästinenser in Deutschland e.V.“ an, die das Bild verbreitete. Von dort hieß es, man kenne den Ursprung nicht. Der Facebook-Beitrag wurde mittlerweile gelöscht.

Bilder, die mit Hilfe von Künstlicher Intelligenz erstellt wurden, begegneten uns schon häufiger. So wurde zum Beispiel eine fiktive Festnahme von Donald Trump dargestellt, Wladimir Putin, der angeblich vor Xi Jinping auf die Knie ging, oder eine angebliche Explosion nahe dem Pentagon in Washington.

Tipps, zum Erkennen eines manipulierten oder mit einer KI erstellten Bildes:

  • Wenn Sie unsicher sind, ob ein Ereignis so stattgefunden hat, wie es auf einem Bild zu sehen ist: Suchen Sie mit Stichworten nach potenziellen Medienberichten zu dem Ereignis.
  • Achten Sie, wie oben beschrieben, auf Ungereimtheiten und Details in dem Bild.
  • Suchen Sie, wenn möglich, nach der ursprünglichen Quelle für das Bild. Helfen kann dabei manchmal auch eine Bilderrückwärtssuche. Wie die funktioniert, können Sie hier nachlesen.

Alle Faktenchecks zu Falschmeldungen und Gerüchten zum Krieg im Nahen Osten finden Sie hier.

Redigatur: Viktor Marinov, Uschi Jonas

Fact Checker Logo

Israel-Hamas-Konflikt

Autor(en): CORRECTIV

Ursprünglich hier veröffentlicht.

Nach oben scrollen