Fake-KI-Videos nun schon im „heute journal“ vom ZDF angekommen
Ein KI-generiertes Video, das weinende Kinder und eine abgeführte Mutter zeigt, lief am 15. Februar 2026 ungekennzeichnet im „heute journal" des ZDF – einem der meistgesehenen Nachrichtenformate des öffentlich-rechtlichen Rundfunks. Der Vorfall offenbart weit mehr als eine redaktionelle Panne. Er markiert einen Wendepunkt in der Frage, wie synthetische Medieninhalte das Fundament journalistischer Glaubwürdigkeit untergraben können.
Was genau ist passiert?
Am Sonntagabend, dem 15. Februar 2026, strahlte das ZDF im „heute journal" einen Beitrag über die Abschiebepraxis der US-Migrationsbehörde ICE aus. In einer Sequenz war zu sehen, wie eine Frau von Einsatzkräften abgeführt wird, während zwei Kinder verzweifelt weinen – ein erschütterndes Bild, das den Sprechertext über reale Festnahmen durch ICE-Agenten begleitete. Das Problem: Dieses Video war vollständig KI-generiert, erzeugt mit OpenAIs Videotool „Sora", und trug sogar ein sichtbares Wasserzeichen des Erzeugers.
Doch der „Doppelfehler", wie ihn die ZDF-Nachrichtenchefin Anne Gellinek später selbst bezeichnete, ging noch weiter. Eine weitere Szene im selben Beitrag zeigte einen Jungen, der von einem uniformierten Beamten abgeführt wird – unterlegt mit dem Sprechertext, ICE-Agenten würden „Minderjährige vor ihren Schulen mitnehmen". Diese Aufnahme war zwar real, stammte allerdings aus dem Jahr 2022 aus Florida und zeigte den Kontext einer Amokdrohung an einer Schule – nicht eine ICE-Razzia. Zwei Fehler in einem einzigen Beitrag, die beide in dieselbe Richtung wirken: Sie erzeugen beim Publikum ein emotionales Bild, das so nicht der dokumentierten Realität entspricht.
Die Erklärungsversuche des ZDF
Die Reaktion des Senders verlief in mehreren Stufen, was die Glaubwürdigkeit der Aufarbeitung nicht eben stärkte. Zunächst sprach das ZDF lediglich von einem technischen Problem: Die Kennzeichnung der KI-Bilder sei „bei der Überspielung des Beitrags aus technischen Gründen nicht übertragen" worden. Man habe den Fehler korrigiert und das Video in der Mediathek angepasst, hieß es in einer ersten Stellungnahme.
Erst am Dienstag, dem 18. Februar 2026, korrigierte sich der Sender und räumte „handwerkliche Fehler" ein. Der Einsatz von KI-generierten Bildern und Videos von Menschen, Ereignissen und politischen Zusammenhängen sei im Nachrichtenbereich grundsätzlich nicht möglich – es sei denn, ein Beitrag thematisiere ausdrücklich KI-Fälschungen. In diesem Fall hätte demnach selbst eine Kennzeichnung nicht ausgereicht. Die stellvertretende Chefredakteurin Anne Gellinek erklärte: „Wir entschuldigen uns in aller Form für diese Fehler. Der Beitrag entspricht nicht unseren Standards und hätte in dieser Form nicht gesendet werden dürfen".
Bemerkenswert ist, dass Moderatorin Dunja Hayali den Beitrag mit den Worten eingeleitet hatte, es gebe im Internet viele Videos über ICE-Einsätze, von denen „nicht alle verlässlich" seien. Der Beitrag selbst nutzte dann jedoch genau solche nicht verlässlichen Aufnahmen – und zwar exakt an den Stellen, an denen der Sprechertext von realen Festnahmen handelte. Die ursprüngliche Erklärung des ZDF, man habe mit den KI-Bildern die Anmoderation „illustrieren" wollen, in der von echten und falschen Bildern die Rede war, hält einer näheren Betrachtung kaum stand.
Du findest unsere Initiative unterstützenswert und möchtest dies zeigen? Dann nutze jetzt unser gratis Siegel!
Siegel Nutzen
Warum dieser Vorfall so brisant ist
Der Fall berührt eine zentrale Achse des öffentlich-rechtlichen Auftrags: Vertrauen. Das Reuters Institute for the Study of Journalism betont im Digital News Report 2025, dass visuelle Authentizität ein zentraler Vertrauensfaktor für Nachrichtenangebote darstellt. KI-generierte Medieninhalte gelten auch nach Einschätzung der Bundeszentrale für politische Bildung als relevantes Desinformationsrisiko, sobald ihre Herkunft nicht klar erkennbar bleibt.
Der öffentlich-rechtliche Rundfunk finanziert sich durch Gebühren und legitimiert sich durch journalistische Sorgfalt, Unabhängigkeit und Faktentreue. Wenn ausgerechnet in diesem geschützten Raum KI-generierte Inhalte als dokumentarisches Material durchgehen, entsteht ein Schaden, der weit über den einzelnen Beitrag hinausreicht. Die Medienanstalten haben in ihrem Positionspapier zu KI und Medien bereits darauf hingewiesen, dass der Einsatz von KI im Bereich journalistisch-redaktioneller Angebote besondere Sorgfaltspflichten erfordert, weil diese Angebote in erheblichem Maß auf die öffentliche Meinungsbildung wirken. Wird dieses Vertrauen beschädigt, lässt es sich nicht durch eine nachträgliche Korrektur in der Mediathek reparieren.
Die Slop-Falle im Nachrichtenjournalismus
Dieser Vorfall ist ein Paradebeispiel für das, was die AntiSlop-Initiative unter „KI-Slop" versteht: der unkritische, unreflektierte Einsatz von KI-generierten Inhalten, der keinen Mehrwert schafft, sondern aktiv Schaden anrichtet. Das KI-Video mit den weinenden Kindern kursierte bereits seit Monaten in sozialen Netzwerken – unter anderem seit November 2025 auf Instagram, wo Nutzer in den Kommentaren längst auf den KI-Ursprung hingewiesen hatten. Eine professionelle Nachrichtenredaktion mit entsprechenden Ressourcen hätte diese Herkunft verifizieren müssen, bevor das Material in eine Primetime-Sendung gelangt.
Die Frage, die sich stellt, ist nicht trivial: Wie konnte ein Video mit sichtbarem Sora-Wasserzeichen die Qualitätskontrolle eines der größten öffentlich-rechtlichen Sender Europas passieren? Das ZDF hat sich zu der Frage, ob der Redaktion zum Zeitpunkt der Ausstrahlung bekannt war, dass es sich um KI-generiertes Material handelte, zunächst nicht geäußert. Diese Informationslücke wiegt schwer, denn sie berührt die Frage, ob hier Fahrlässigkeit oder bewusste Inkaufnahme vorlag.
Was dieser Fall für den Umgang mit KI bedeutet
- Verifikation wird zur Kernkompetenz. In einer Medienlandschaft, in der KI-generierte Videos zunehmend realitätsnah wirken, reicht es nicht mehr, Bildmaterial „aus dem Netz" zu übernehmen. Redaktionen benötigen systematische Prüfprozesse, die synthetische Inhalte identifizieren – etwa durch Deepfake-Detektoren, wie sie bereits die rheinland-pfälzische Polizei einsetzt.
- Leitlinien allein genügen nicht. Das ZDF verfügt über eigene „KI-Grundsätze", die eine transparente Kennzeichnung von KI-generiertem Material vorschreiben. Dass diese Grundsätze im konkreten Fall nicht griffen, zeigt: Papier ist geduldig. Entscheidend sind funktionierende Workflows und technische Sicherungsmechanismen, die verhindern, dass ungekennzeichnetes Material überhaupt in die Sendeabwicklung gelangt.
- Transparenz muss proaktiv erfolgen. Die stufenweise Kommunikation des ZDF – erst „technischer Fehler", dann „handwerklicher Fehler", schließlich vollständige Entschuldigung – hat den Vertrauensschaden eher vergrößert als begrenzt. Wer Fehler einräumt, sollte dies vollständig und sofort tun.
Die Verantwortung liegt nicht bei der Technologie
Es wäre ein Fehlschluss, aus diesem Vorfall eine grundsätzliche Ablehnung von KI im Journalismus abzuleiten. KI-Werkzeuge können Recherche beschleunigen, Transkriptionen erstellen, Datenanalysen ermöglichen. Die Technologie selbst ist weder das Problem noch die Lösung. Die entscheidende Frage formuliert Presse.Online treffend: Wird KI zur Illustration genutzt, zur Simulation – oder entsteht beim Publikum der Eindruck dokumentarischer Echtheit?
Im Fall des „heute journal" wurde ein KI-generiertes Video in einem Kontext eingesetzt, der dokumentarische Echtheit suggerierte. Genau hier verläuft die Grenze zwischen sinnvollem KI-Einsatz und Slop: Wenn synthetische Inhalte reale Ereignisse simulieren und dabei Emotionen erzeugen, die auf falschen Prämissen beruhen, ist das kein Werkzeugeinsatz mehr – sondern Desinformation, unabhängig davon, ob sie fahrlässig oder vorsätzlich erfolgt.
Fazit
Der Vorfall im „heute journal" sollte als Weckruf verstanden werden – nicht gegen KI, sondern für einen verantwortungsvollen Umgang mit ihr. Öffentlich-rechtliche Medien tragen eine besondere Verantwortung, weil sie sich über gesellschaftliches Vertrauen legitimieren. Jede Unklarheit bei der Kennzeichnung synthetischer Inhalte wird in diesem Kontext zur Grundsatzfrage. Die Antwort darauf kann nicht in besseren Leitlinien allein liegen, sondern muss sich in der täglichen redaktionellen Praxis manifestieren: in funktionierenden Prüfmechanismen, in technischer Absicherung und in einer Fehlerkultur, die Transparenz nicht als nachgelagerte Schadensbegrenzung begreift, sondern als journalistisches Grundprinzip.
Häufige Fragen (FAQ)
Was genau war das KI-generierte Video im ZDF-Beitrag?
Das Video zeigte eine Frau, die von Einsatzkräften abgeführt wird, während zwei Kinder weinen. Es wurde mit OpenAIs „Sora" erzeugt und trug ein Wasserzeichen, das jedoch in der Sendung nicht wirksam übertragen wurde. Der Sprechertext suggerierte dabei reale ICE-Festnahmen.
Warum hat das ZDF das Video nicht gekennzeichnet?
Zunächst sprach das ZDF von einem technischen Fehler bei der Überspielung. Später räumte es „handwerkliche Fehler" ein und erklärte, dass KI-generierte Inhalte von Personen und Ereignissen im Nachrichtenbereich grundsätzlich nicht verwendet werden dürfen – unabhängig von einer Kennzeichnung.
Was ist der „Doppelfehler" im Beitrag?
Erstens das ungekennzeichnete KI-Video; zweitens eine reale, aber falsch kontextualisierte Aufnahme aus 2022, die eine Amokdrohung an einer Schule zeigte, als ICE-Razzia präsentiert.
Wie schadet das dem Vertrauen in Medien?
Öffentlich-rechtliche Sender wie das ZDF legitimieren sich durch Faktentreue. Wenn KI-Fakes als Dokumentation durchgehen, untergräbt das die Glaubwürdigkeit – besonders in emotional aufgeladenen Themen wie Abschiebungen.
Was kann man tun, um KI-Slop zu vermeiden?
Redaktionen brauchen verifizierte Workflows, Deepfake-Detektoren und klare Leitlinien. Nutzer sollten Wasserzeichen prüfen und Quellen hinterfragen. Initiativen wie AntiSlop plädieren für bewussten KI-Einsatz mit Haltung.
Quellen
1. Deutschlandfunk – ZDF räumt Fehler bei Verwendung KI-generierter Bilder ein
2. ZDFheute – In eigener Sache: Falsche Bilder im ZDF-Beitrag über ICE in USA
3. Deutschlandfunk – ZDF-Nachrichtenchefin entschuldigt sich für „Doppelfehler"
4. Handelsblatt – ZDF verwendet KI-Bilder in „Heute Journal"-Sendung
5. Presse.Online – ZDF-KI-Panne erschüttert Vertrauen
6. die medienanstalten – KI und Medien: Vielfalt stärken, Verantwortung regeln, Vertrauen wahren










0 Kommentare