Bewertung
Das Video wurde mit Hilfe Künstlicher Intelligenz (KI) erstellt. Gabriele Krone-Schmalz hat die Aussagen nicht getätigt.
Fakten
Beim näheren Hinsehen sieht man, dass sich ihre Schultern im Verhältnis zum Hals und Kopf während des gesamten Videos kaum bewegen. Ein erster Hinweis auf eine Fälschung. Die Video-Stimme ähnelt zwar der tatsächlichen von Krone-Schmalz, aber sie klingt monoton. Zudem wirken die wenig vorkommenden Atempausen unregelmäßig und unnatürlich. Das Blinzeln der Augen wirkt mechanisch, außerdem stimmen die Mundbewegungen mit der Tonspur nicht ganz überein.
Allem Anschein nach handelt es sich um einen Deepfake, für den solche Unstimmigkeiten charakteristisch sind. Laut der deutschen Bundeszentrale für politische Bildung handelt es sich bei Deepfakes um «Bild-, Video- oder Tonaufnahmen, die echt wirken, in Wahrheit jedoch mithilfe generativer künstlicher Intelligenz manipuliert wurden.» Die KI macht etwa aus Fotos Bewegtbilder. Die Manipulationen und Veränderungen sind demnach mitunter so geschickt, dass man die Aufnahmen kaum als Fälschungen erkenne.
Im konkreten Fall gibt es eine ältere Aufnahme von Krone-Schmalz, auf der ihr dunkles Oberteil und ihre Kette zur Optik im Video passen. Dieses Foto diente wahrscheinlich als Grundlage der Fälschung.
Zuletzt kursierten mehrere Deepfakes, die die Stimme und Bilder von Krone-Schmalz missbrauchen. Die Deutsche Presse-Agentur (dpa) hat diese zum Beispiel hier und hier geprüft. Krone-Schmalz schrieb dazu auf eine frühere dpa-Anfrage, dass es sich um keine echten Aufnahmen von ihr handele. «In letzter Zeit sind eine ganze Reihe KI-generierter Fake-Videos von mir im Netz aufgetaucht (u.a. mache ich irgendwo Werbung für Kryptowährung, was natürlich völliger Blödsinn ist).»
(Stand: 25.9.2025)
