Das ZDF hatte angekündigt, die Fehler im «heute journal» aufzuarbeiten. Die Überprüfung identifizierte schwerwiegende Verstöße gegen ZDF-Richtlinien und journalistische Standards. Die zuständige Korrespondentin hatte für die Redaktionen «Mittagsmagazin» und «heute journal» über die Angst von Kindern unter anderem in New York vor den Festnahmen der amerikanischen ICE-Behörde berichtet. Dieser Bericht wurde von der Korrespondentin für das «heute journal» vom 15. Februar angepasst. In der neuen Fassung verwendete sie zwei Videoszenen aus dem Netz. Davon stammte eine Szene aus einem völlig anderen Kontext (Festnahme in Florida 2022), die andere Szene war KI-generiert.Auf Nachfrage beim ZDF, was denn zu dem KI-Fehler geführt habe, erhielten Quotenmeter und andere Medien folgende Auskunft: "Die Autorin hat Videomaterial zur Bebilderung ihres Beitrags ausgewählt, ohne es vorher gewissenhaft und vollständig auf Herkunft und Authentizität überprüft zu haben. Auch von der «Heute Journal»-Redaktion wurden die Prüf- und Verifikationsverfahren nicht wie vorgesehen angewendet."
Man hätte daraus eine unzureichende Prüfung des Videos seitens der Korrespondentin folgern können, die den künstlichen Ursprung des Materials wohl nicht bemerkt habe. Vor einiger Zeit kamen aber auch diesbezüglich Widersprüche aus einer Redaktionskonferenz auf, die ein Mitarbeiter heimlich abgefilmt zu haben scheint. Der Mitschnitt stellte die Aussage in den Raum, wonach die zuständige Korrespondentin sich doch bewusst gewesen sein soll, dass das Video KI-generiert war und es wissentlich verwendete. Diese Aussage wurde scheinbar von Schausten selbst in der Redaktionsbesprechung getätigt.
Quotenmeter hat nun noch einmal beim ZDF angefragt, welcher Hergang denn der zutreffende war. Ein Sendersprecher äußerte zunächst: "Die Korrespondentin hat KI-generiertes Material verwendet, da sie davon ausging, dass dieses mit einer entsprechenden Kennzeichnung sendbar gewesen wäre. Selbst mit einer Kennzeichnung hätte das nicht den KI-Richtlinien des ZDF entsprochen."
Ein weiteres Nachhaken unsererseits führte dann das wohl zugrundeliegende Missverständnis zu Tage: Denn die Mainzer führten aus: "Während sich die Kenntnis der Autorin auf die KI-generierte Sequenz bezog, bezog sich die fehlende Überprüfung auf die zweite, fälschlich verwendete Sequenz, die aus dem Jahr 2022 stammt. Diese Videoszene zeigte keinen aktuellen ICE-Einsatz, sondern stammte aus einem anderen Kontext. Eine Überprüfung dieser Videoszene und ihres Ursprungs ist entgegen der im ZDF geltenden Standards nicht erfolgt."
Im Fazit der Fehlerkette lässt sich folglich festhalten, dass die gebündelte Kommunikation über die zwei unterschiedlichen Videos zu Verwirrungen führte. Die aus der Redaktionskonferenz durchgestochenen Aussagen, wonach die Korrespondentin vom KI-Charakter des Fake-Videos wusste, treffen also zu. Die angekündigten Schulungen vom ZDF werden wohl entsprechend nicht nur auf intensivierte Verifizierungsmaßnahmen abzielen müssen, sondern auch auf die Grundannahmen, mit denen Journalistinnen und Journalisten Material auswählen und eben auch ausschließen.







Programm-Marken: ZDF-«Frühling» blüht auf, «Promis unter Palmen» wieder heiterer

Senior Video Producer/ 1st TV Operator (m/w/d)
1. Aufnahmeleitung im Bereich Reality (m/w/d)
Initiativbewerbungen (m/w/d)




Schreibe den ersten Kommentar zum Artikel