„Videomaterial ausgewählt, ohne es gewissenhaft geprüft zu nach sich ziehen“ – Zweites Deutsches Fernsehen ordnet Pflichtschulungen an

Die Empörung nach den KI-generierten und veralteten Aufnahmen bei einem Beitrag über ICE-Einsätze in den USA im „Heute Journal“ ist groß. Obwohl sich das ZDF in seiner Sendung vom Dienstagabend entschuldigte, glauben viele nicht an einen „Doppelfehler“. Vor allem die widersprüchlichen Reaktionen des Senders auf Medienfragen befeuerten den Verdacht.

Gegenüber dem „Spiegel“ konkretisierte das ZDF nun, wie es zu den krassen Fehlern kommen konnte: Die Autorin des Beitrags habe nach der Darstellung des Senders Videomaterial zur Bebilderung ihres Beitrags ausgewählt, ohne es vorher „gewissenhaft und vollständig auf Herkunft und Authentizität überprüft zu haben“. Auch die „Heute Journal“-Redaktion habe die vorgesehenen Prüfverfahren demnach nicht korrekt angewendet. Dies entspreche nicht den journalistischen Regeln und Standards des ZDF.

Deshalb zieht der Sender nun weitere Konsequenzen – und ordnet „zusätzliche, verpflichtende Schulungen für Mitarbeitende“ an. Zudem soll der Vorfall konsequent aufgearbeitet und ein Maßnahmenkatalog erstellt werden, um künftig Abläufe bei der Verifikation von Bewegtbildmaterial strenger zu regeln.

Moderatorin Dunja Hayali, die den gleich in doppelter Hinsicht fehlerhaften Beitrag anmoderiert hatte, nimmt der Sender jedoch in Schutz. Hayali soll nichts von den handwerklichen Fehlern gewusst haben.

Hayali sagte in der Anmoderation: „Wer in den sozialen Netzwerken unterwegs ist, wird festgestellt haben, dass es sehr viele Videos zu den Einsätzen der ICE-Truppen von Donald Trump gibt. Nicht alle sind echt, aber doch sehr viele.“ Dann folgte das KI-generierte Video.

ZDF reagierte auf Anfragen widersprüchlich

Nachdem Kritik an dem KI-Fake und der veralteten Aufnahme aufkam, reagierte das ZDF widersprüchlich. Gegenüber Apollo News, das wie Nius zuerst über den Skandal berichtet hatte, äußerte sich ein ZDF-Sprecher: „In einem Beitrag des ‚Heute Journal‘ vom 15. Februar 2026 hätten KI-generierte Bilder gekennzeichnet werden müssen.“ Diese Kennzeichnung sei bei der Überspielung des Beitrags aus technischen Gründen nicht übertragen worden. Die Redaktion habe den Fehler korrigiert und das Video entsprechend angepasst. Und weiter: „In den KI-Grundsätzen des ZDF ist festgelegt, dass KI-generiertes Bildmaterial immer transparent gekennzeichnet wird.“

Der Sender erweckte da noch den Eindruck, sich nicht generell an der Verwendung der KI-generierten Bilder zu stören, sondern sah den Fehler offenbar einzig in dem fehlenden schriftlichen Hinweis. Das klang einen Tag später dann anders, als das ZDF in der Sendung vom Dienstag die Fehler klarstellte. „Das Benutzen solcher KI-Bilder widerspricht den KI-Regeln, die im ZDF Standard sind“, erklärte Moderator Stefan Leifert. In diesen sei festgelegt: „Der Einsatz KI-generierter Bilder und Videos von Menschen, Ereignissen und politischen Zusammenhängen sind im Nachrichtenbereich nicht möglich. Ausnahme: Es geht in Berichten ausdrücklich um KI-Fakes.“ Weil dies in besagtem Beitrag aber nicht der Fall war, hätte demnach auch eine Kenntlichmachung nicht gereicht.

NRW-Medienminister spricht von „krasser Fälschung“

Die Kritik am ZDF reißt seit dem KI-Skandal unterdessen nicht ab. So sagte unter anderem NRW-Medienminister Nathanael Liminski gegenüber dem „Stern“: „Diese krasse Fälschung in einer Nachrichtensendung ist ein gravierender Fehler.“

Er sieht in dem Vorfall eine ernste Gefährdung der Glaubwürdigkeit des öffentlich-rechtlichen Rundfunks. „Anstatt Desinformation und Deepfakes zu entlarven, wird auf Bildmaterial aus sachfremden Zusammenhängen sowie auf KI-generierte Fakebilder zurückgegriffen. Dies ist ein Tabubruch und ein absolutes No-Go“, sagte Liminski weiter.

Auch Kulturstaatsminister Wolfram Weimer äußerte sich zu dem Vorfall, schlug dabei jedoch deutlich gemäßigtere Töne an. Er sprach bei WELT TV von einem „unangenehmen Vorgang“, der die Glaubwürdigkeit des Senders untergrabe. Zugleich betonte er: „Aber die Kollegen haben sich entschuldigt. Sie haben einen Fehler gemacht. Ich finde, damit ist die Sache dann auch gut.“ Fehler könnten in vielen Redaktionen passieren, so Weimer.

Source: welt.de

DunjaHayaliHeute JournalKMedienNewsteamünstliche IntelligenzWeimerWolframZDF