
Ian Crosby, il legale del New York Times nella causa contro OpenAI, sostiene che i chatbot delle società di intelligenza artificiale abbiano sostituito i siti delle testate come luogo per informarsi. Se così fosse, ci sarebbe da preoccuparsi, perché, come ha mostrato una ricerca della Bbc, gli assistenti basati sull’intelligenza artificiale non sembrano per nulla affidabili nel riportare le notizie.
Lo scorso dicembre, 45 giornalisti del servizio pubblico inglese hanno revisionato 362 risposte generate da quattro fra i più noti sistemi di intelligenza artificiale, la versione Enterprise di ChatGpt, Pro di Copilot, Gemini Standard e Perplexity Pro. Dunque, rispettivamente, i chatbot di OpenAI, Microsoft, Google e Perplexity.
A questi assistenti è stato dato l’accesso al sito della Bbc e sono state fatte loro domande inerenti a fatti di attualità, chiedendo loro, dove possibile, di utilizzare gli articoli di Bbc News come fonte.
I giornalisti, esperti dei vari temi sui quali erano focalizzate le domande, hanno poi valutato le risposte.
I risultati sono negativi. Il 51% delle le risposte date dall’IA sulle notizie presentava problemi significativi, mentre il 19% delle risposte che menzionavano contenuti pubblicati dalla Bbc conteneva errori rilevanti, come affermazioni, numeri o date errati.

La sede centrale della Bbc a Londra. Foto: Amy Karle, Wikimedia Commons.
I limiti dell’IA
Charlie Beckett, direttore del centro di ricerca Polis e del progetto JournalismAI alla London School of Economics, ha dichiarato che l’intelligenza artificiale non rimpiazzerà il giornalismo fatto dagli esseri umani, ma aiuterà le redazioni a diventare più efficienti nel processo di raccolta, scelta e produzione delle notizie.
Lo studio in questione apre però a un’altra questione relativa al rapporto fra IA e giornalismo, che Deborah Turness, amministratore delegato di Bbc News, definisce il problema della “distorsione”.
Turness lo descrive come l’evento che si verifica quando a un assistente di intelligenza artificiale viene chiesto di raccogliere delle notizie e fornire una risposta, ma questa risposta è “inesatta, fuorviante e potenzialmente dannosa”.
Questa problematica, scrive l’Ad della testata, rischia di aumentare la già precaria fiducia di cui i mezzi di informazione tradizionali stanno godendo nei tempi recenti.
In alcuni casi, continua la manager di Bbc, le società tecnologiche hanno ammesso i limiti dei propri sistemi di intelligenza artificiale nel riportare le notizie e hanno fatto un passo indietro.
È il caso di Apple che ha deciso di sospendere una funzione che dava la possibilità di generare con l’IA un riassunto degli articoli, dopo che alcuni di questi riepiloghi hanno riportato informazioni sbagliate, ad esempio su una notizia riguardante gli incendi a Los Angeles.
Per questo, sostiene Turness, è fondamentale che testate e società di IA instaurino una collaborazione più fruttuosa per cercare soluzioni condivise anche sul lato della regolamentazione, senza limitare il potenziale positivo dell’intelligenza artificiale in ambito giornalistico.