Nell’anno delle elezioni uno dei più grandi timori era la potenziale influenza dell’intelligenza artificiale sul loro esito. Sono andati alle urne 3,7 miliardi di persone in più di 70 Paesi, dalle europee di giugno al voto negli Stati Uniti, India e Indonesia. Per molti centri di ricerca, l’effetto dell’IA è stato meno rilevante di quello che si pensava.
Meno del previsto
Lo sostiene l’Alan Turing Institute che, analizzando le campagne di tre tornate elettorali fondamentali nel Regno Unito, Francia e Unione Europea, ha scoperto soltanto 27 contenuti generati dall’IA e diventati virali. L’ente no profit News Literary Project negli Stati Uniti ha affermato che su circa mille esempi di disinformazione inerenti alle elezioni del 5 novembre, solo il 6% erano stati generati dall’intelligenza artificiale.
Oltre a menzionare i precedenti due studi, il Financial Times cita una propria ricerca che ha analizzato termini come “deepfake” o “generato dall’IA” nel sistema di fact-checking di X, costruito sui commenti degli utenti. Queste espressioni erano associate soprattutto ai nuovi modelli di intelligenza artificiale per generare immagini e in misura molto minore alle elezioni.
L’articolo del quotidiano inglese sostiene la tesi secondo la quale l’influenza dell’IA sul voto sarebbe stata minore di quello che si temeva a inizio anno. Per farlo, prende in considerazione anche casi di Paesi non occidentali, come il Bangladesh e il Sudafrica, dove il livello di contenuti definibili deepfake associato alle elezioni si è mantenuto ben più basso delle aspettative.
Altri sostengono una linea analoga.
Il MIT Technology Review a settembre riportava le parole di Nick Clegg, presidente di Facebook, secondo il quale l’IA generativa serviva agli attori russi per provare ad aumentare l’effetto delle proprie campagne di destabilizzazione e propaganda negli Stati Uniti e non era il mezzo principale per realizzarle.
Anche per il professore dell’università di Berkeley, Hany Farid, l’intelligenza artificiale non ha cambiato l’esito delle elezioni statunitensi. È dello stesso parere anche Jan Easterly, direttrice della Cybersecurity and infrastructure security sgency, un’agenzia federale del governo stanutiense. Easterly, ricorda il Washington Post, nega che l’IA abbia influenzato il risultato finale del voto.
Constatare un impatto minore del previsto sulle elezioni nel corso dell’anno non significa negare i tentativi di influenzare il voto che, invece, sono stati frequenti e di forma diversa.
Basti pensare, tra gli altri, alle immagini create con l’intelligenza artificiale di Taylor Swift che supporta Donald Trump o ai finti audio in cui di Joe Biden cerca di dissuadere gli abitanti del New Hampshire a votare alle primarie.
O, ancora, il video falso, condiviso da Elon Musk su X e visto da oltre 136 milioni di persone, in cui Kamala Harris festeggerebbe la decisione di Biden di ritirare la propria candidatura, deridendo il presidente uscente.
In questo caso, il filmato originale specifica che si tratta di una parodia, ma, una volta condiviso da Musk, – e, di conseguenza da centinaia di migliaia di utenti – è diventato la prova dell’esistenza di una realtà alternativa per tanti affezionati dell’universo Maga.
This is amazing 😂
pic.twitter.com/KpnBKGUUwn— Elon Musk (@elonmusk) July 26, 2024
Non va sempre liscia
In alcuni casi, è improbabile negare l’impatto dell’intelligenza artificiale nel processo elettorale.
Il più eclatante è quello delle elezioni presidenziali in Romania, annullate dalla Corte costituzionale dopo le prove di ingerenza russa nella campagna elettorale del candidato nazionalista di estrema destra Calin Georgescu, che ha beneficiato di una sovraesposizione su TikTok risultata decisiva e resa possibile dall’impiego dell’IA.
Le elezioni romene sono menzionate da Euronews insieme ad altri episodi che mostrano come l’intelligenza artificiale sia stata il mezzo principale per promuovere la disinformazione – sia dall’interno del Paese, sia tramite ingerenze straniere.
Un altro episodio è quello dell’ex primo ministro pakistano Imran Khan, che ha usato l’IA per clonare la sua voce e farsi scrivere dei discorsi sulla sua presunta vittoria elettorale, nonostante fosse in carcere.
“Integrare l’IA, in particolare i deepfake, nelle campagne politiche è una tendenza che continuerà a evolversi nel tempo”, aveva detto a febbraio al New York Times Saifuddin Ahmed, professore dell’Università Nanyang di Singapore, dopo l’episodio di Khan.
L’altro effetto dell’IA
Dunque, l’uso dell’intelligenza artificiale ha avuto un impatto secondario nella maggior parte delle campagne elettorali svolte nel 2024, con poche ingombranti eccezioni.
Il relativo insuccesso delle deepfake da IA si spiega, afferma il MIT Technology Review, in diversi modi. In primo luogo, persuadere le masse implica la capacità di agire su una serie di fattori, come l’età, il genere, la classe sociale, i valori, i legami, rispetto ai quali le informazioni – in questo caso false e generate tramite l’intelligenza artificiale – sono soltanto una componente.
Fra gli altri elementi fondamentali che le campagne di disinformazione non hanno centrato c’è la capacità di raggiungere il proprio pubblico target, in un mondo social intasato da milioni di contenuti.
Anzi, sottolinea la rivista, continuare ad aggiungere post a post, immagini a immagini e video a video spesso finisce per stancare gli utenti, sopraffatti dalla mole enorme di contenuti di argomento simile.
Per risolvere questo problema, se ne crea un altro, opposto. La propaganda utilizza infatti l’IA per creare dei sottoinsiemi molto circoscritti di utenti a cui indirizzare contenuti specifici. Gli elettori riconoscono questi post troppo personalizzati e li penalizzano.
La chiave sembrerebbe poter essere pubblicare contenuti creati su misura, ma non eccessivamente personalizzati.
Dove invece questo tipo di disinformazione causa danni maggiori è sotto l’aspetto del cosiddetto liar’s dividend. Sfruttando la presenza di informazioni false generate dagli strumenti di intelligenza artificiale, c’è chi sostiene che anche i contenuti ottenuti da fonti attendibili sono in realtà creati con l’IA.
Si genera confusione, rendendo difficile per le persone distinguere cosa è vero da cosa non lo è, e si indebolisce la fiducia nei canali istituzionali e giornalistici.
Un esempio citato dal Washington Post è l’accusa falsa mossa da Donald Trump a Kamala Harris di aver pubblicato un’immagine falsa che inquadrava la vicepresidente in un comizio a Detroit davanti a una grande folla. “Non c’era nessuno”, ha scritto Trump, ma la foto era vera.
These are not conspiratorial rantings from the deepest recesses of the internet. The author could have the nuclear codes and be responsible for decisions that will affect us all for decades. pic.twitter.com/zdmJ2fh7I6
— David Plouffe (@davidplouffe) August 11, 2024
Come sottolineato da Daniel Schiff, ricercatore della Purdue University, molti contenuti manipolati o creati con l’IA sono pensati come post satirici per rafforzare le opinioni di persone già schierate.
È l’intelligenza artificiale usata non solo e non tanto per cambiare l’esito delle elezioni, ma per aumentare la polarizzazione di chi va a votare, alimentando il sospetto verso chi le notizie attendibili prova a comunicarle.