Bewertung
Eine Sequenz wurde mithilfe einer KI-Software erstellt.
Fakten
Drei der vier veröffentlichten Videos zeigen tatsächlich israelische Angriffe auf Beirut. Die Aufnahmen findet man ebenfalls in verschiedenen Medienberichten.
Erster Teil des Videos KI-generiert
Der erste Teil des dritten Videos wurde hingegen synthetisch erzeugt. So wirken unter anderem die Geschwindigkeit der Fahrzeuge im Vordergrund und das höchste der brennenden Gebäude unnatürlich.
Ein TikTok-Nutzer veröffentlichte die Sequenz am 1. Oktober 2024 auf seinem Account. Er nennt sich selbst «AI Artist» («KI-Künstler») und weist unter dem Video darauf hin, dass es sich um KI-generierten Content handelt. Auf seinem Profil gibt es mehrere ähnliche Videos.
Der zweite Teil desselben Videos zeigt echte Aufnahmen von Explosionen in Beirut am 5. Oktober 2024. Der libanesische Fernsehsender «Al Jadeed» veröffentlichte eine Aufnahme davon bei X.
KI-generierte Videos erkennen
KI-generierte Inhalte weisen oft bestimmte Merkmale auf, die sie erkennbar machen:
- Licht und Schatten wirken oft unnatürlich oder inkonsistent, da die Berechnung für KI-Modelle komplex ist.
- Bei schnellen Bewegungen oder sich schnell verändernden Szenen entstehen oft Bildverzerrungen, weil die KI die Details nicht korrekt anpasst.
- Gesichter wirken oft zu glatt oder symmetrisch. Schnelle Kopf- oder Augenbewegungen erscheinen unnatürlich.
- Ohrringe, Zähne oder Haare können bei genauer Betrachtung inkonsistent wirken, da die KI Schwierigkeiten hat, diese bei jeder Bewegung stabil darzustellen.
- Lippenbewegungen passen oft nicht exakt zu dem, was gesprochen wird, besonders bei komplexen oder langen Wörtern.
(Stand: 28.10.2024)