Im ZDF–„heute journal“ vom vergangenen Sonntag (15. Februar) wurde ein Beitrag über die US-Migrationsbehörde ICE gezeigt, in der Bilder zum Einsatz kamen, die mithilfe von Künstlicher Intelligenz (KI) erstellt wurden. Dies wurde nicht entsprechend gekennzeichnet und sorgte berechtigerweise für Aufruhr (fernsehserien.de berichtete). Inzwischen ist bekannt, dass der verantwortlichen Autorin nicht bewusst war, dass es sich bei dem verwendeten Material um Bilder handelte, die entweder per KI erstellt wurden oder die gar nicht in Zusammenhang mit ICE standen. Mit einiger Verspätung hat sich das ZDF inzwischen auch on Air für den Vorfall ausführlich und umfassend entschuldigt. Darüber hinaus hat der Sender nun Maßnahmen angekündigt, damit so etwas hoffentlich nicht noch einmal passiert.
Online erläutert das ZDF, dass die Autorin des betreffenden Beitrags über ICE Videomaterial zur Bebilderung ausgewählt habe, ohne dies vorher „gewissenhaft und vollständig auf Herkunft und Authentizität“ überprüft zu haben. Das entspräche nicht den journalistischen Regeln und Standards des ZDF. Darüber hinaus seien auch von der „heute journal“-Redaktion die Prüf- und Verifikationsverfahren nicht wie vorgesehen angewendet worden. In Schutz nimmt das ZDF dagegen Dunja Hayali, die zwar den Beitrag in der Nachrichtensendung anmoderierte, aber laut Sender ausdrücklich nichts von den handwerklichen Fehlern wusste.
Erhalte News zu heute journal direkt auf dein Handy. Kostenlos per App-Benachrichtigung.Kostenlos mit der fernsehserien.de App.
Alle Neuigkeiten zu heute journal und weiteren Serien
deiner Liste findest du in deinem
persönlichen Feed.
Der Beitrag hätte in dieser Form nicht ausgestrahlt werden dürfen, stellt das ZDF klar. Daher wurde er von allen Plattformen entfernt. Darüber hinaus versichert der Sender, dass man den Vorfall konsequent aufarbeite. In diesem Zusammenhang werde ein Maßnahmenkatalog erarbeitet, „um Abläufe bei der Verifikation von Bewegtbildmaterial noch strenger zu regeln“. Explizit beinhaltet dies auch „zusätzliche, verpflichtende Schulungen für Mitarbeitende“. Erklärtes Ziel sei es, die „hohen journalistischen Standards“ des ZDF zu sichern.
Für Bild- und Videomaterial, das in Informationssendungen und digitalen Angeboten des ZDF verwendet wird, gebe es grundsätzlich ein journalistisches Prüf- und Verifikationsverfahren. Dazu gehören eine Plausibilitäts- und Quellenprüfung durch Autoren und Redaktionen sowie spezialisierte Verifikations- und Faktencheck-Teams.
Abschließend stellt der Sender noch einmal klar, dass der Einsatz KI-generierter Bilder und Videos von Menschen, Ereignissen und politischen Zusammenhängen „im Genre Nachrichten/Info nicht erlaubt“ sei. Eine Ausnahme sei, wenn sich ein Beitrag beispielsweise explizit dem Thema Deepfakes widme. Dies würde dann aber eindeutig gekennzeichnet und journalistisch eingeordnet und wäre für das Publikum klar erkennbar.
Kommentare zu dieser Newsmeldung
Winslow (geb. 2001) am
Sehr ihr das, BILD, Nius und Co? Nicht nur wurde der Fehler transparent in der Sendung richtiggestellt, es wird sogar intern aufgearbeitet. So macht man das.