
“Chi è senza peccato, scagli la prima pietra”. Se questa citazione biblica venisse interpretata alla lettera da parte dei giornalisti che utilizzano strumenti di intelligenza artificiale senza avere, prima, ottenuto l’autorizzazione da parte dell’azienda per cui lavorano, sarebbe soltanto la metà di loro a lanciare il masso.
A rivelarlo è una ricerca condotta da Trint, software di trascrizione basato sull’intelligenza artificiale, che ha chiesto a produttori, redattori e corrispondenti di 29 redazioni a livello globale come intendono utilizzare l’intelligenza artificiale per lavorare.
Nel 42,3% dei casi, i giornalisti hanno svelato di utilizzare strumenti di IA generativa al lavoro senza che questi siano stati concessi in licenza dalla propria azienda.

Immagine: sondaggio Trint.
All’ombra della Shadow AI
Il sondaggio mostra anche che solo il 17% degli intervistati ha ritenuto che la “shadow AI” – l’uso di strumenti o app di IA da parte dei dipendenti senza l’approvazione dell’azienda – sia una sfida che le redazioni devono affrontare.
Il tema è molto caldo, perché a oggi sono ancora poche le redazioni di quotidiani, non solo italiani ma anche internazionali, che hanno palesato l’introduzione di strumenti intelligenti nel lavoro quotidiano – spesso non solo di redazione.
Tra questi, il New York Times, ma anche il gruppo editoriale italiano GEDI e Rcs MediaGroup – come si legge sul Corriere della Sera.
Terrore dei giornalisti
Resta da capire, quindi, perché questa IA faccia tanto paura.
Il sondaggio di Trint esamina le preoccupazioni dei giornalisti, che nel 75% dei casi rivelano di essere scettici su eventuali imprecisazioni nei risultati forniti dall’IA, il 55% ha paura che venga minata la propria reputazione mentre nel 45% dei casi a preoccupare è il rispetto della privacy.

Foto: Pexels.
Al centro c’è il tema dell’efficienza, che, da quanto emerge dal sondaggio, è la priorità per i centri media italiani, con il 69% degli intervistati che riferisce di averla adottata proprio per migliorare le prestazioni e risparmiare tempo da poter, così, dedicare ad altre attività.
La radice del problema, però, resta, perché i lavoratori sostengono che le direzioni aziendali si siano concentrate sulle proprie necessità anzi che interpellare le priorità di coloro che per quell’azienda lavorano quotidianamente.
Il cruccio della privacy
C’è anche un altro tema che spaventa non solo i dipendenti ma anche le stesse aziende: la privacy e l’anonimato dei dati.
Felix Simon, ricercatore in intelligenza artificiale e informazione all’Università di Oxford che studia le implicazioni dell’IA per il giornalismo, in un’intervista a Digiday, ha affermato che se un dipendente scarica un modello linguistico di grandi dimensioni e lo utilizza localmente, questo non rappresenta, necessariamente, un rischio per la propria sicurezza.

Foto: Pexels.
Attenzione, però, sempre ai dati sensibili.
Le raccomandazioni da parte di esperti e analisti di settore fissano questa accortezza ai primi posti tra le azioni da non dimenticare mai per chi utilizza qualsiasi tipo di IA. Il rischio che, insomma, i dati personali finiscano nelle mani sbagliate, è onnipresente.
Proprio per aggirare queste preoccupazioni, il rapporto di Trint evidenzia come il 64% delle organizzazioni preveda di migliorare la formazione dei dipendenti e il 57% abbia intenzione di introdurre nuove politiche sull’uso dell’IA nel 2025.
Prevenire per non curare resta, quindi, la formula vincente.