Video eines britischen Soldaten ist KI-generiert - Featured image

Video eines britischen Soldaten ist KI-generiert

In einem Video auf X, schreit ein vermeintlicher britischer Soldat einen Polizisten an. Er behauptet, er habe sein «Leben geopfert, um die Freiheit dieses Landes zu sichern», während die Polizei Menschen «wegen ihrer Worte» verhafte. Der User kommentiert, er sage «das, was alle denken». Doch zeigt das Video tatsächlich einen echten Soldaten?

Bewertung

Nein, das ist falsch. Das Video wurde mithilfe von Künstlicher Intelligenz (KI) erzeugt, die Szene hat es so nie gegeben.

Fakten

Das Video zeigt keinen realen Vorfall. Der angebliche Soldat trägt in dem Clip eine Uniform, die einer britischen MTP-Uniform (Multi-Terrain Pattern) ähneln soll, also der im Vereinigten Königreich gebräuchlichen Tarnuniform. Schaut man sich das Video genauer an, fallen mehrere Details auf, die darauf hinweisen, dass die Szene mithilfe von KI generiert wurde:

– Verdrehte Flagge: Die britische Flagge (Union Jack) wirkt auf den ersten Blick symmetrisch, doch man kann sie falsch herum darstellen – wie in dem Video. Richtig ausgerichtet (Mastseite links) liegen die breiten weißen Diagonalstreifen in den oberen und unteren Ecken über den schmaleren roten Diagonalstreifen. Der Merksatz lautet: «Wide white top», also breiter weißer Streifen oben an der Mastseite. Liegt der dünne weiße Streifen oben, hängt die Flagge verkehrt herum. Auf echten Uniformen käme das kaum vor. Solche Patzer sind typisch für KI-Bilder.

– Fehlerhafte Uniform: Auf der Uniform prangen mehrere Namensschilder mit «Morley» – eines über der rechten Brust, mindestens zwei über der linken. Solche Ungereimtheiten treten bei KI-generierten Bildern und Videos oft auf, da die Systeme bisher Mühe haben, Details wie Schriftzüge, Abzeichen oder Logos korrekt und konsistent darzustellen.

– Steife Bewegungen: Die Gestik und Mimik von Soldat und Polizist wirken unnatürlich starr, wiederholen sich und laufen nicht flüssig.

– Künstliche Tonspur: Die Stimme des angeblichen Soldaten klingt nicht wie eine Außenaufnahme. Typische Geräusche wie Wind, Verkehr oder entfernte Stimmen fehlen, obwohl die Fälschung vorgibt, an einer Straße entstanden zu sein. Auch Atemgeräusche fehlen, obwohl der Sprecher laut schreit.

– Sprachmelodie und Rhythmus wirken stellenweise monoton. Zudem passen die Mundbewegungen streckenweise nicht zu den Wörtern, die gleichzeitig zu hören sind.

Diese Merkmale sind typisch für sogenannte Deepfakes: Audio- oder Videoaufnahmen, die mit Künstlicher Intelligenz erstellt wurden. Sie wirken auf den ersten Blick echt, sind aber künstlich erzeugt.

(Stand: 11.12.2025)

Fact Checker Logo

Künstliche Intelligenz, Politik

Autor(en): dpa

Ursprünglich hier veröffentlicht.

Nach oben scrollen