Le strane opinioni dell’intelligenza artificiale del Los Angeles Times

Di il 07 Marzo, 2025
Los Angeles Times 2014 free photo Wikimedia Commons
Il proprietario Patrick Soon-Shiong aveva annunciato l'introduzione di un misuratore di bias. Ora ha lanciato Insights, che usa l'IA per fornire punti di vista alternativi agli editoriali

Il proprietario del Los Angeles Times ha voluto integrare nuove funzioni basate sull’intelligenza artificiale per mitigare i potenziali pregiudizi delle opinioni dei suoi giornalisti. Ma l’esperimento, finora, non è andato così bene.

Patrick Soon-Shiong, imprenditore miliardario nel campo delle biotecnologie, ha acquistato il quotidiano nel 2018 per 500 milioni di dollari e lunedì scorso, con una lettera indirizzata ai lettori, ha presentato Insights, uno strumento basato sull’IA e disponibile per alcuni editoriali – ora identificati come Voices – che offre versioni alternative alle argomentazioni degli opinionisti.

Lo scopo di questa funzione, ha scritto Soon-Shiong, è offrire in modo rapido e semplice “diverse prospettive generate dall’IA, affiancandole alle posizioni presentate nell’articolo”.

Proporre punti di vista diversi, ha aggiunto il proprietario – che a ottobre ha vietato la pubblicazione dell’endorsement della redazione per Kamala Harris alle elezioni presidenziali -, “aiuterà i lettori a orientarsi nelle sfide che il Paese deve affrontare”.

Qualcosa, però, è andato storto.

Dr_Patrick_Soon-Shiong_(wiki_free_to_use_14212355607) Los Angeles Times

Patrick Soon-Shiong, proprietario del Los Angeles Times dal 2018. Foto: Wikimedia Commons.

Svarioni e autodifesa

A meno di un giorno dal debutto di Insights, il cronista del New York Times Ryan Mac ha scoperto in un editoriale del Los Angeles Times che uno di questi pareri alternativi esponeva delle argomentazioni che sembravano giustificare il Ku Klux Klan.

Earlier today the LA Times had AI-generated counterpoints to a column from @gustavoarellano.bsky.social. His piece argued that Anaheim, the city he grew up in, should not forget its KKK past.

The AI “well, actually”-ed the KKK. It has since been taken off the piece.

www.latimes.com/california/s…

[image or embed]

— Ryan Mac 🙃 (@rmac.bsky.social) 4 March 2025 at 06:34

Soon-Shiong, riporta la Cnn, è venuto a conoscenza del fatto soltanto alcune ore dopo che i commenti generati dall’intelligenza artificiale erano stati rimossi dall’articolo.

Secondo il giornalista Gustavo Arellano, autore dell’editoriale, la città californiana di Anaheim non dovrebbe dimenticare il suo nefasto passato politico che ha visto il Kkk protagonista negli anni ‘2o del secolo scorso.

L’IA ha replicato dando un punto di vista ben più sfumato.

Insights ha ricordato che alcuni racconti della storia del luogo descrivono l’organizzazione come un “prodotto della ‘cultura bianca protestante’ che reagiva ai cambiamenti sociali, piuttosto che un movimento esplicitamente basato sull’odio”.

Sebbene sia vero, come ha detto lo stesso Arellano, che “gli abitanti di Orange County abbiano minimizzato il Ku Klux Klan degli anni ’20, considerandolo praticamente anti-razzista”, il fatto che il commento venga presentato come una valida interpretazione alternativa pone la questione di come controllare e contestualizzare i contenuti prodotti dall’IA.

È altrettanto problematico che Soon-Shiong non abbia saputo dell’accaduto se non dopo che il testo dell’IA era stato eliminato, sottolinea la Cnn.

Un’altra visione contraddittoria pubblicata da Insights è stata notata dal Guardian sotto a un articolo incentrato sui rischi dell’utilizzo dell’IA nei documentari.

Lo strumento del Los Angeles Times ha risposto presentando un’arringa in quattro punti, due dei quali sottolineano come l’intelligenza artificiale promuovi la democratizzazione della narrazione storica e un’eccessiva regolamentazione rischi di soffocare l’innovazione.

los angeles times free to use flickr

La sede del Los Angeles Times. Foto: Flickr.

Dietro Insights

Come evidenzia il Guardian, il Los Angeles Times si è affidato a Perplexity, un motore di ricerca basato sull’IA, per generare le opinioni alternative.

La startup Particle.News, fondata lo scorso anno da ex ingegneri di Twitter, fornisce una funzione aggiuntiva: offrire una valutazione politica dell’articolo scritto dal giornalista.

Nel caso dell’editoriale sull’intelligenza artificiale nei documentari, il giudizio è stato: di “centro-sinistra”.

Secondo la Cnn, l’aggiunta dei nuovi strumenti di IA all’interno del quotidiano fa parte di una strategia per attirare un nuovo pubblico più giovane e conservatore – lo scorso dicembre Soon-Shiong aveva anche annunciato l’introduzione di un “misuratore di bias” per gli articoli di opinione.

È stato infatti notato come un commento di Scott Jennings, una voce conservatrice entrata a far parte della redazione da pochi mesi, fosse stato etichettato come “centrista”, nonostante numerosi riferimenti che ne facevano trapelare lo schieramento politico di destra.

In modo simile, a diversi editoriali critici nei confronti del presidente degli Stati Uniti Donald Trump, Insights ha aggiunto delle risposte che supportano l’operato dell’amministrazione.

Devi essere loggato per lasciare un commento.