Bearbeitetes Video-Standbild aus Minneapolis ist fehlerhaft - Featured image

Bearbeitetes Video-Standbild aus Minneapolis ist fehlerhaft

Achtung: Dieser Faktencheck verlinkt zu Videos, die Gewalt zeigen und verstörend wirken können.

In Minneapolis gehen US-Bundesbehörden gegen Menschen ohne rechtmäßigen Aufenthaltsstatus vor. Die Einsätze sorgen für viele Proteste. Am Wochenende ist eine zweite Person am Rande solcher Einsätze durch Schüsse von Beamten getötet worden, der 37-jährige Alex Pretti. Die US-Regierung hob hervor, dass er bewaffnet gewesen sei. Doch zum Zeitpunkt der Schussabgabe soll Pretti seine Pistole bereits abgenommen worden sein. Das soll auch ein Bild belegen, auf dem die Waffe deutlich in der Hand eines der Beamten sichtbar ist. Unterstützt das Bild den Ablauf, den viele Medien anhand von Augenzeugenvideos rekonstruiert haben?

Bewertung

Als der erste Schuss fiel, hatten die Einsatzkräfte Prettis Waffe tatsächlich schon sichergestellt. Das Bild allerdings taugt nicht als Beleg, denn es wurde mit KI bearbeitet und ist fehlerhaft.

Fakten

Der US-Amerikaner Alex Pretti ist am 24. Januar in Minneapolis von Beamten der Grenzschutzpolizei erschossen worden. Pretti hatte einen Einsatz der Bundesbehörden gegen illegale Einwanderung gefilmt, ehe es zu einer Auseinandersetzung mit ihm und weiteren Beobachtern kam. Als mehrere Beamte Pretti auf den Boden drückten, schossen zwei von ihnen insgesamt zehn Mal auf Pretti und verletzten ihn tödlich. Der Vorfall sorgte für breites Entsetzen. Anfang Januar war in Minneapolis bereits eine Frau am Rande eines Einsatzes durch Schüsse von Bundesbeamten getötet worden.

Der Tod von Alex Pretti ist von Augenzeugen in mehreren Videos festgehalten worden. Sie belegen zum Beispiel, dass Pretti eine Pistole bei sich trug, diese jedoch nicht in den Händen hielt. Kurz vor dem ersten Schuss nahm einer der Beamten Pretti die Pistole mutmaßlich aus einer Halterung am Gürtel. Dennoch fielen dann zehn Schüsse auf den erst auf dem Boden knienden und dann liegenden Mann. Analysen von US-Medien wie der «New York Times» und von der Rechercheplattform Bellingcat belegen diesen Ablauf.

Die US-Bundesregierung stellte die Geschehnisse zunächst anders dar. Der Vizestabschef von US-Präsident Donald Trump, Stephen Miller, behauptete, Pretti habe versucht, Bundesbeamte zu «ermorden». Aber aus keiner der Augenzeugenaufnahmen geht das hervor.

Mehrere Details passen nicht zu den authentischen Videos

Das Standbild, auf dem der Beamte mutmaßlich Prettis Pistole in der Hand hält und sich vom Ort der Auseinandersetzung zu entfernen scheint, entspricht grob einem der Augenzeugenvideos. Bemerkenswert ist jedoch, dass das Bild deutlich schärfer ist. Mutmaßlich wurde ein Standbild aus dem Video bearbeitet, vergrößert und mit Hilfe von KI-Tools nachgeschärft. Doch bei der Bearbeitung sind Fehler entstanden. Das Bild ist aus mehreren Gründen nicht authentisch:

  • Das Kennzeichen des weißen Autos im Hintergrund stimmt nicht mit dem tatsächlichen Kennzeichen überein, wie ein Vergleich mit einem weiteren authentischen Video zeigt. Die Ziffern «397» stimmen zwar überein, aber der erste Teil der Zahlen- und Buchstabenfolge ist ein anderer.
  • Das Gesicht des Mannes, der die Waffe an sich genommen hat, ist nicht zu erkennen und verschwimmt mit Kapuze und Mütze. Auf dem Kopf fehlt die nach oben geschobene Sonnenbrille, die auf anderen Videos zu sehen ist.
  • Ob die überraschend scharf dargestellte Pistole in der Realität tatsächlich so aussah, ist unklar. In den Videos ist der Gegenstand in der Hand des Mannes nur schlecht zu erkennen, glänzt jedoch deutlich weniger als auf dem Einzelbild. In jedem Fall passt die Pistole auf dem Bild nicht zu jener auf einem Foto, das das US-Heimatschutzministerium nach den tödlichen Schüssen veröffentlicht hat und das nach dessen Angaben Prettis Pistole zeigt.

KI-Bearbeitung ist fehleranfällig

Der Grund für diese Bildfehler ist vermutlich der Einsatz von Künstlicher Intelligenz – wie auch im Fall eines anderen nicht authentischen Bilds aus Minneapolis, das die Deutsche Presse-Agentur geprüft hat.

Anders als viele Nutzer annehmen hat eine KI kein tieferes Wissen über die tatsächlichen Abläufe oder über Details, die auf verschwommenen Aufnahmen nicht genau zu erkennen sind. Tatsächlich arbeitet generative KI mit Wahrscheinlichkeiten. Dabei können Halluzinationen entstehen, wie das Beispiel des Kennzeichens zeigt. Auch über die genaue Beschaffenheit der Pistole muss eine KI bestimmte Annahmen treffen. Dabei gibt es eine hohe Fehlerwahrscheinlichkeit.

(Stand: 28.1.2026)

Fact Checker Logo

USA, Politik

Autor(en): dpa

Ursprünglich hier veröffentlicht.

Nach oben scrollen