Prima X, poi Meta, infine Google. Seppure in contesti e tempistiche diverse, anche il motore di cerca si è espresso sul fact-checking, l’argomento che, insieme al destino di TikTok negli Stati Uniti, sta dominando la discussione nel settore dell’informazione.
Kent Walker, presidente degli affari globali di Google, ha inviato una lettera a Renate Nikolay, numero due del direttorato per le Reti di comunicazione, dei contenuti e delle tecnologie della Commissione europea, riporta Axios.
Walker ha fatto sapere alla Commissione che l’attuale approccio di Google alla moderazione dei contenuti funziona bene così com’è. L’azienda statunitense, quindi, non aggiungerà un sistema di verifica dei fatti ai suoi risultati di ricerca e ai video su YouTube.
Ha portato a testimonianza il livello di controllo della disinformazione che il motore di ricerca è riuscito a mantenere lo scorso anno, caratterizzato da un numero mai visto di elezioni. Nel 2024, 3,7 miliardi di persone sono andate al voto in 70 Paesi.
La posizione di Google
La richiesta dell’Unione Europea deriva dal Codice di buone pratiche sulla disinformazione che è stato approvato nel 2022.
Di recente, scrive Euronews, il comitato europeo per i servizi digitali ha proposto di includere il Codice stesso nel testo della normativa sui servizi digitali – il Digital service act – e procedere così alla sua adozione formale.
Già nel 2022, Google non aveva approvato diverse parti della sezione del Codice riguardanti il fact-checking.
Tra le motivazioni, la società di Menlo Park affermava come sia il suo servizio Google Search sia YouTube si sarebbero impegnate “a raggiungere accordi con le organizzazioni di fact-checking”. Ma né Search né YouTube avrebbero avuto “totale controllo su questo processo”.
La linea non è cambiata. Nonostante diverse iniziative per supportare gli organi di controllo della disinformazione, Google non si avvale di un servizio di fact-checking.
La richiesta di verifiche dei fatti secondo quanto affermato dal Codice di buone pratiche sulla disinformazione “non è appropriata né efficace per i nostri servizi”, sostiene Walker.
Per questo motivo, si legge, Google “si ritirerà da tutti gli impegni sottoscritti nella sezione sul fact-checking del Codice prima che questo diventi un Codice di condotta all’interno del Dsa”.
L’azienda californiana continuerà piuttosto a investire nelle proprie politiche di moderazione dei contenuti, fra cui il sistema Synth ID, che etichetta i contenuti creati con l’intelligenza artificiale, e il meccanismo di dichiarazione automatica per i contenuti generati con l’IA su YouTube.
Ci pensano gli utenti
Il presidente degli affari globali di Google ha anche ricordato che lo scorso anno YouTube ha attivato un servizio simile alle note degli utenti di X – le cosiddette community notes – che permettono di aggiungere commenti relativi ai video.
Si tratta di un’opzione che anche Facebook, Instagram e Threads adotteranno negli Stati Uniti nei prossimi mesi, come annunciato dall’amministratore delegato di Meta, Mark Zuckerberg.
Nel caso di Meta, questo servizio andrà a sostituire il precedente programma di fact-checking fornito da organizzazioni indipendenti avviato nel 2016.