Video generato con intelligenza artificiale: ZDF licenzia la corrispondente da New York
Quando si parla dell’impatto nefasto dell’intelligenza artificiale sulla credibilità dell’informazione, si tende a pensare soprattutto ai contenuti generati e ricondivisi dagli utenti o al più da pagine gestite privatamente, a scopo di intrattenimento o, nel peggiore dei casi, di disinformazione. Quello che meno sovente si menziona è che la mancanza di un controllo adeguato delle fonti, soprattutto quando si tratta di materiale video o fotografico, può danneggiare seriamente la qualità del lavoro e quindi la credibilità anche dei media istituzionali. Un esempio recentissimo è quello che ha coinvolto l’emittente pubblica tedesca ZDF e che si è concluso con il licenziamento della corrispondente da New York Nicola Albrecht. Il programma “Heute Journal”, nel contesto di un servizio sui raid dell’ICE, l’ormai famigerato dipartimento dell’Homeland Security incaricato delle deportazioni di massa volute dal governo Trump, ha trasmesso immagini generate dall’intelligenza artificiale e materiale video attribuito in modo errato, ma inizialmente l’emittente ha mancato di riconoscere l’errore. Un errore che, in un contesto giornalistico di questo livello, è di una gravità inaudita.
Un video generato con intelligenza artificiale, uno fuori contesto
Nicola Albrecht aveva realizzato un contributo sulle operazioni dell’ICE, concentrandosi sulla paura dei bambini, anche a New York, di essere arrestati. Un tema serissimo, considerando il numero di minori coinvolti anche in prima persona nei raid e i casi drammatici che sono legati a questo fenomeno. Nel servizio andato in onda domenica, figuravano due sequenze video, che però non erano state girate direttamente dal personale della ZDF, ma prese da Internet e che si sono rivelate problematiche per due motivi distinti.
La prima ripresa era “vera”, ma non aveva niente a che fare con i fatti narrati nel servizio: mostrava un arresto avvenuto in Florida nel 2022. La seconda era generata dall’intelligenza artificiale e faceva parte delle migliaia di video di questo genere che ormai, su internet, avvelenano tutte le narrative sui temi più importanti del momento. Nessuno dei due video era stato sottoposto alla verifica prevista dalle procedure interne, né al materiale AI era stata apposta l’etichetta obbligatoria per renderlo riconoscibile secondo le norme dell’emittente. Non è del tutto chiaro se l’etichetta sia stata omessa o se Albrecht e il suo team semplicemente abbiano preso per vero il video falso.
Una pessima gestione della crisi da parte dell’emittente
Se Albrecht ha sbagliato, ZDF non ha certamente gestito meglio questa crisi. Interpellata nelle prime ore successive alla messa in onda, quando già i due errori erano stati notati dal pubblico e da parte della stampa, la ZDF aveva riconosciuto l’utilizzo di immagini generate dall’AI, attribuendo però l’assenza dell’etichetta a ragioni tecniche. Anziché procedere a una rettifica esplicita, l’emittente aveva dapprima rimosso il servizio e poi lo aveva ricaricato con modifiche marginali.
Solo in un secondo momento la direzione ha riconosciuto la portata complessiva degli errori, chiedendo scusa al pubblico attraverso lo stesso programma. La gestione tardiva e frammentata della vicenda ha finito per amplificare le critiche, offrendo argomenti a chi da tempo mette sotto accusa l’informazione pubblica tedesca e minando, inevitabilmente, la credibilità non solo dell’emittente, ma dell’intera categoria.
Con un comunicato stampa ufficiale, la ZDF ha reso noto il licenziamento con effetto immediato di Nicola Albrecht, citando gravi violazioni delle linee guida redazionali e degli standard giornalistici. La caporedattrice Bettina Schausten ha definito il danno “grave”, riconducendolo direttamente alla credibilità dell’informazione dell’emittente.
Un catalogo di misure in elaborazione
La ZDF ha annunciato la predisposizione di un insieme strutturato di interventi per garantire il rispetto degli standard giornalistici “in ogni momento e senza limitazioni”. Una misura dovuta e obbligata, certo, ma che non può che richiamare il detto relativo al chiudere la stalla quando i buoi sono già scappati. Nel comunicato si precisa che il materiale generato dall’AI non avrebbe potuto essere impiegato senza una giustificazione editoriale e senza classificazione secondo le regole interne. La redazione finale dell’Heute Journal, si legge ancora nel comunicato, avrebbe dovuto riconoscere la sequenza IA al momento dell’approvazione del contributo.
Il commento del Ministro della Cultura
Sul tema si è espresso anche il ministro tedesco della Cultura e dei Media Wolfram Weimer, che ha commentato la vicenda sul quotidiano Die Welt, definendola un “episodio spiacevole” che in parte erode la credibilità della ZDF, pur ritenendo la questione sostanzialmente chiusa dopo le scuse pubbliche. Errori di questo tipo, ha osservato Weimer, accadono in molte redazioni.



