KI-Bild von tödlichen Schüssen auf Alex Pretti enthält Fehler - Featured image

KI-Bild von tödlichen Schüssen auf Alex Pretti enthält Fehler

Achtung: Dieser Faktencheck verlinkt zu Videos, die Gewalt zeigen und verstörend wirken können.

Von den tödlichen Schüssen durch US-Bundesbeamte auf einen Mann in Minneapolis haben sich im Netz mehrere Augenzeugenvideos verbreitet. Manche Nutzer teilen außerdem ein besonders eindringliches Bild von dem Vorfall. Es zeigt allem Anschein nach einen der Schüsse auf das am Boden kniende Opfer, den 37-jährigen Alex Pretti. Doch bildet es das Geschehen korrekt ab?

Bewertung

Es handelt sich um keine authentische Darstellung der Schüsse auf Pretti, auch wenn die Szenerie jener in den Augenzeugenvideos stark ähnelt. Mehrere Details zeigen, dass das Bild mit KI bearbeitet und geschärft wurde. Dabei sind jedoch Fehler und Halluzinationen entstanden.

Fakten

Am 24. Januar töteten Bundesbeamte, vermutlich von der US-Grenzschutzpolizei, in der Großstadt Minneapolis Alex Pretti, einen US-Amerikaner und Bürger der Stadt. Pretti hatte einen Einsatz der Bundesbehörden gegen illegale Einwanderung gefilmt, ehe es zu einer Auseinandersetzung mit ihm und weiteren Beobachtern kam. Als mehrere Beamte Pretti auf den Boden drückten, schossen zwei von ihnen insgesamt zehn Mal auf Pretti und verletzten ihn tödlich.

Das Geschehen ist von Augenzeugen in mehreren Videos festgehalten worden. Sie belegen zum Beispiel, dass Pretti eine Waffe bei sich trug, diese jedoch nicht in den Händen hielt. Kurz vor dem ersten Schuss nimmt einer der Beamten Pretti die Waffe mutmaßlich aus einer Halterung am Gürtel. Dennoch fallen dann zehn Schüsse auf den erst auf dem Boden knienden und dann liegenden Mann.

Was auf den Videos zu sehen ist, widerspricht der Darstellung der US-Regierung, wonach die Beamten in Notwehr schossen. Der Vizestabschef von US-Präsident Donald Trump, Stephen Miller, hatte behauptet, Pretti habe versucht, Bundesbeamte zu «ermorden». Aus keiner der Augenzeugenaufnahmen geht das hervor. In Minneapolis gibt es seit Wochen Proteste gegen die Bundesbehörden, die Razzien vorgeblich gegen Menschen ohne rechtmäßigen Aufenthaltsstatus durchführen.

Perspektive stimmt mit authentischem Video überein

Das einzelne Bild, das im Netz kursiert, verfälscht das Geschehen rund um Prettis Tod. Die Perspektive entspricht zwar jener in einer der Augenzeugenaufnahmen. Doch offenbar wurde ein Screenshot aus diesem Video (bei Minute 1:03) so bearbeitet und geschärft, dass Fehler entstanden sind – durch die Verwendung von Künstlicher Intelligenz.

Zunächst einmal fällt auf, dass das Originalvideo eine deutlich geringere Auflösung hat als das Einzelbild. Dessen Zuschnitt entspricht außerdem nur einem Teil des Videos. Denn dieses zeigt deutlich mehr von der näheren Umgebung, etwa eine große Schneefläche am Straßenrand und Gebäude im Hintergrund. Es wurde also ein Bildausschnitt gewählt und nachgeschärft.

Viele Bildbearbeitungstools setzen bei solchen Aufgaben auf Künstliche Intelligenz. Das Problem dabei: An Stellen, die im Original nicht gut zu erkennen sind, können Halluzinationen auftreten.

Nachgeschärftes Bild weist KI-Fehler auf

Und das ist auch hier geschehen. Zwar wirkt es auf den ersten Blick so, als seien die wesentlichen Bildelemente – Pretti, die drei Einsatzkräfte, das Auto im Hintergrund – korrekt dargestellt. Doch es gibt mehrere Bildfehler:

  • Der rechts kniende Beamte hat keinen Kopf. An dessen Stelle sieht man nur Arm und Hand des Mannes hinter ihm.
  • Der untere Teil des Ärmels des Beamten, der die Waffe auf Prettis Rücken richtet, ist in der Realität nicht schwarz, sondern entspricht der Farbe seiner Jacke.
  • Der rechte Fuß des knienden Beamten geht in einen Gegenstand über, der wie eine Waffe aussieht, aber nicht genau zu identifizieren ist.
  • Unten links im Bild befindet sich ein Element, das wie ein Stein oder wie verkrustetes Eis aussieht. Tatsächlich müsste dort aber die Schuhsohle eines weiteren Beamten zu sehen sein. Das zeigt das originale Video.
  • Die Hose, die der vermeintliche Pretti in dem Bild trägt, unterscheidet sich von der, die auf den echten Videos zu sehen ist: In der Realität hat sie keine Beintaschen.
  • Pretti hält in der rechten Hand einen Gegenstand. Es muss sich um sein Handy handeln, das er auch zuvor in den Händen hatte, wie die Videos zeigen. Auf dem Bild ist das Handy merkwürdig verformt.

Wie sind diese Fehler zu erklären?

Anders als viele Nutzer annehmen hat eine KI kein tieferes Wissen über die tatsächlichen Abläufe oder über Details, die auf verschwommenen Aufnahmen nicht genau zu erkennen sind. Tatsächlich arbeitet generative KI mit Wahrscheinlichkeiten.

Ein Beispiel: Wenn sich am Rand der vereisten Straße ein unscharfes Bildelement befindet, dann gibt es eine gewisse Wahrscheinlichkeit, dass es sich um am Straßenrand befindliches, verschmutztes Eis handelt. Genausogut könnte es aber Müll, ein Mauerstück oder ein anderer Gegenstand sein. Die KI muss eine Annahme treffen, worum es sich handelt. Dabei gibt es eine hohe Fehlerwahrscheinlichkeit.

Bekannte Medien haben in ihren Analysen der Videos aus Minneapolis zwar ebenfalls Bilder und Videos bearbeitet eingesetzt, allerdings offenbar deutlich vorsichtiger. Die «New York Times» hat Videos verlangsamt, Bildausschnitte vergrößert und leicht nachgeschärft. Die Rechercheplattform Bellingcat schreibt, dass sie bei einem Screenshot die Helligkeit erhöht habe.

Warum sollte man Augenzeugen-Videos nicht mit KI bearbeiten?

Dass der Einsatz von KI bei der Untersuchung von echten Ereignissen schnell in die Irre führt, zeigt ein weiteres Beispiel aus Minneapolis. Nach den tödlichen Schüssen auf Renée Good am 7. Januar verbreiteten Nutzer in den sozialen Netzwerken Bilder, die das ganze Gesicht des Schützen – ein Beamter der Einwanderungsbehörde ICE – zeigen sollen. Auf den authentischen Videos hatte der Mann Nase, Mund und Kinn mit einem Tuch maskiert.

Mit KI-Tools ließ sich die Maskierung vermeintlich entfernen. Verschiedene Versuche führten aber zu unterschiedlichen Gesichtern. Auch hier gilt: Die KI traf nur Annahmen, die plausibel erscheinen. Das tatsächliche Gesicht des ICE-Beamten war auch ihr unbekannt.

(Stand: 27.1.2026)

Fact Checker Logo

USA

Autor(en): dpa

Ursprünglich hier veröffentlicht.

Nach oben scrollen