La super intelligenza non è un pericolo, ma bisogna difendere le competenze

Di il 27 Marzo, 2025
Federico Cabitza_1
Per Federico Cabitza, esperto dell'interazione fra uomo e macchina, l’IA può trasmettere cultura e produrre informazioni. Ma bisogna stare attenti a non delegare troppo

Federico Cabitza non è un determinista. Sa bene che la rivoluzione dell’intelligenza artificiale è in corso, certo, ma che il modo in cui mostrerà i suoi effetti dipendono largamente da noi. Anche sul “noi”, però, Cabitza fa differenze: che si tratti della comunità scientifica, dei legislatori, o della nostra vita quotidiana – e anche delle nostre competenze – fa la differenza.

Professore di interazione uomo-macchina all’Università di Milano-Bicocca, collabora con numerosi ospedali tra cui il San Raffaele, cercando evidenze scientifiche dell’impatto dell’uso dell’IA generativa sul lavoro in ambito medico.

Autore, tra le altre cose, di “Intelligenza artificiale. L’uso delle nuove macchine” con Luciano Floridi, si interroga sull’IA anche in un senso etico e filosofico, paragonandola a una rivoluzione pari alla stampa o al sistema postale moderno in epoca illuministica.

Consapevole che tutti viviamo nella società dell’informazione, dice che l’IA sarà un vettore di trasmissione culturale capace di produrre informazioni nuove, aiutandoci a generare “variazioni sull’umano”.

Qual è l’aspetto dell’IA generativa che ritiene davvero rivoluzionario per le nostre vite?
Forse per deformazione professionale risponderei che i modelli linguistici di grandi dimensioni e la loro espressione nei sistemi IA produttori di contenuti cambieranno radicalmente il modo in cui si creerà e si diffonderà la conoscenza scientifica. Questo accadrà sia nei circoli specialistici, dove questi sistemi verranno impiegati per esplorare e analizzare idee che qualcuno avrà già formulato oppure per crearne di nuove, in una specie di brainstorming creativi con i ricercatori, sia nei contesti divulgativi, dove invece contribuiranno a rendere la conoscenza più accessibile, chiara e articolata, anche per il grande pubblico non specialista.

Intende che non ci saranno impatti rilevanti per gli utenti non specializzati di questi strumenti? Eppure, i recenti sviluppi vanno nella direzione di avvicinare i chatbot a dei motori di ricerca. Quale potrebbe essere il valore aggiunto e diffuso di questa evoluzione?
Possiamo indicarlo come la visione dell’IA come motore di trasmissione culturale. Le tecnologie precedenti, dal web ai social media, si sono concentrate principalmente sul recupero di informazioni (information retrieval, ndr). Erano agenti computazionali che si limitavano a presentare dati già esistenti, agendo come motori di ricerca, con l’effetto di un filtro. Come ha evidenziato Eli Parisier (autore de Il Filtro, ndr), queste tecnologie non solo recuperavano informazioni, ma le selezionavano, amplificando alcuni segnali, in base alla loro autorevolezza, popolarità o compatibilità con un certo profilo di interessi, e attenuandone altri. Questo generava il classico effetto San Matteo o dei vantaggi cumulati: le fonti e i testi considerati più autorevoli diventavano ancora più autorevoli, e i più popolari ancora più popolari.

Come cambierà il nostro modo di informarci?
Anche se viviamo in quella che James R. Beniger ha definito “la società dell’informazione”, rispondo con una premessa: l’unica vera evoluzione dell’informazione, intesa come processo che plasma i nostri pensieri, è la conoscenza. Quest’ultima non è un semplice accumulo di dati, ma il processo in cui la forma dei nostri pensieri dà struttura, direzione e senso alle nostre azioni. I nuovi sistemi IA non si limitano a recuperare informazioni, ma le producono. È vero che per farlo attingono a tutto ciò che l’umanità ha scritto e creato in millenni, o almeno a una parte significativa di queste tracce, ma lo fanno attraverso il remix e la trasformazione: è la loro funzione. In un certo senso, questi sistemi replicano il fenotipo esteso dell’essere umano, con mirata e voluta imperfezione, estendendone i confini senza cadere in ripetizioni estenuanti: cogliendo, inavvertitamente, quella che forse è una caratteristica fondamentale della cultura umana, questi sistemi riproducono continue variazioni sul tema dell’umano.

Intravedo la possibilità di un uso oracolare dell’IA, pari all’interrogare i tarocchi o gli astri. Come tutte le pratiche che interrogano il futuro, ma anche il presente, c’è il rischio di un abbandono del libero arbitrio.
È vero che le persone si rivolgeranno sempre più agli agenti conversazionali come suggeritori, colleghi, consiglieri e confidenti. Non solo per imparare, ma anche per alleviare il peso delle proprie decisioni. Bisogna distinguere tuttavia i campi di applicazioni. Da esperti, l’uso dell’IA influenzerà la fiducia e l’affidamento, cioè la reliance degli utenti, un fenomeno che potrebbe causare un’erosione delle competenze, della motivazione ad applicarle e trasmetterle, ossia deskilling e alienazione. Se invece le persone hanno poche risorse in partenza per valutare criticamente le risposte ricevute, potremmo assistere a un aumento dello status di autorità epistemica attribuito a questi sistemi. Questo può portare a rischi significativi. Da un lato, il pericolo di persuasione automatizzata. È quella che il regolamento europeo sull’IA definisce distorsione dell’automazione e che Luciano Floridi, con la sua immaginazione dannunziana, chiama hypersuasion. Dall’altro, il rischio di un bias di conferma di convinzioni preesistenti.

AI journalism IA giornalismo foto free Canva intelligenza artificiale

Foto: Canva.

Si parla molto della dirompente innovazione che l’IA porterà soprattutto in alcuni settori. C’è chi dice che siano più vulnerabili, c’è chi intravede possibilità di arrivare finalmente a quello che aveva pronosticato Keynes, cioè che la tecnologia ci aiuti davvero a ridurre le ore di lavoro mantenendo la stessa produttività.
Qui, lo confesso, nutro una speranza quasi messianica. Sì, spero ardentemente che l’IA generativa mandi dapprima in crisi, e poi faccia scomparire del tutto, quello che chiamo il “teatro del documento”. Questo “teatro” riguarda una finzione composta da innumerevoli riti di compilazione documentale, registri, rapporti, relazioni, moduli, notule, statini, che, per il loro numero e ripetitività, sono un vero e proprio lavoro nel lavoro. Anzi, un bullshit job, come lo chiama David Graeber, cioè un lavoro di registrazione insensato in cui siamo costretti a scrivere e riscrivere cose stranote. Un esempio sono i nostri dati anagrafici.

E la speranza qual è?
La speranza è che gli agenti nostri copiloti prenderanno progressivamente il controllo della macchina burocratica, liberandoci dalla necessità di essere noi i suoi automi compilatori. Questo non fermerà affatto il processo irreversibile di burocratizzazione universale della nostra società, di weberiana memoria, ma lo trasformerà. E in modi che antropologi e sociologhi devono ancora osservare e comprendere.

Facciamo bene a essere spaventati da ciò che non possiamo comprendere, quindi?
Il rapporto tra gli esseri umani e le tecnologie emergenti è complesso e non riducibile a un’unica etichetta. Sono d’accordo con l’amico Francesco Parisi quando afferma che non abbiamo ancora le categorie concettuali per pensare il nostro rapporto con queste tecnologie. Sono troppo nuove e in continua evoluzione. Anzi, chi può dire cosa saranno in grado di fare tra due, cinque anni? Quale magnifica illusione saranno in grado di mettere in scena? Personalità? Affettività? Intenzionalità? Detto questo, credo che la cautela sia d’obbligo. È un atteggiamento adattativo che ci ha reso, sì, una specie ansiosa, ma anche prudente e previdente.

Quali rimedi abbiamo a disposizione?
Personalmente, adotto il principio di precauzione di Jonas: scetticismo e diffidenza sono necessari, soprattutto verso un apparato tecnologico progettato per fornire risposte che appaiono sempre attendibili e convincenti. Il rischio di credergli ciecamente è alto, perché questi sistemi non ammettono mai davvero la propria ignoranza.

pexels-sanketgraphy-16587313 chatgpt openai free

Foto: Pexels.

Come facciamo a usare l’IA mantenendo lo spirito critico?
Il vero problema non è tanto l’IA in sé. Un modello linguistico produce testi come un mulino ad acqua macina farina: segue un meccanismo, senza intenzionalità. La questione cruciale riguarda chi finanzia, alimenta, vincola e orienta questi sistemi. Nella migliore delle ipotesi, l’unico scopo è il profitto. In ipotesi peggiori, il potere, non solo economico. Se queste tecnologie ridurranno la diversità delle prospettive e amplificheranno pregiudizi e narrazioni polarizzate, dipenderà da noi. Il vero pericolo non è la super-intelligenza, ma la singolarità della competenza, come la definisce Gary Klein.

Mi aiuti a capire. Cos’è la singolarità della competenza? Significa che se non continuiamo a usare alcune competenze, le perderemo?
All’inizio ho detto che la IA cambierà i meccanismi di trasmissione della conoscenza. Ora aggiungo che c’è il rischio concreto che in questo cambiamento potremmo esagerare con la delega alle macchine e quindi potremmo rischiare di perdere progressivamente le nostre capacità, ma soprattutto la voglia di trasmetterle e tramandarle.

Con quali conseguenze?
Questo destino sarebbe ironico e paradossale: la nostra più potente invenzione nel facilitare la creazione e trasmissione di cultura, cioè la scrittura, raggiunge con lo sviluppo dei grandi modelli linguistici la sua realizzazione più perfetta: scrittura che genera altra scrittura. Così facendo, questa invenzione nel suo punto di massimo splendore contribuisce a inaridire la fonte stessa dell’energia che ha contribuito a forgiarla. Forse aveva ragione Thamus (Il mito di Thamus, o Theuth, è un mito egizio presente nel Fedro di Platone. Narra del rifiuto da parte del faraone del dono della scrittura offertogli da Theuth, per timore di perdere “il farmaco della memoria” a causa di questa nuova conoscenza. Simboleggia la naturale ritrosia dell’uomo di fronte all’avvento di una nuova tecnologia, per paura che il suo uso intacchi le abilità umane, ndr).

Lei da tempo lavora al prompt design e all’interazione con il suo chatbot. Le chiederei di fare all’IA una domanda a suo piacimento e che riportasse la risposta: sono curiosa di sapere se le assomiglia.
Certo. Questo è il mio prompt: “Fai finta di essere me (consulta la tua memoria e la custom instructions). Immagina che un giornalista mi intervisti (cioè intervisti te che immagini di essere me al massimo delle tue capacità). Cosa risponderesti a questa domanda se tu fossi me? ‘Secondo lei, l’intelligenza artificiale è destinata a sviluppare anche una propria coscienza, cioè una qualche consapevolezza di sé stessa?'” Ed ecco la risposta del chatbot, non modificata.

“Oggi non abbiamo alcuna evidenza concreta che l’intelligenza artificiale stia sviluppando una forma di coscienza, né motivi scientificamente solidi per pensare che ciò avverrà presto — anche se non possiamo escluderlo del tutto. Non lo dico con compiacimento né con sollievo: semplicemente, non sappiamo nemmeno cosa sia davvero la coscienza, né come emerga nel cervello umano. È un fenomeno ancora profondamente misterioso, e finché non avremo una teoria scientifica chiara e verificabile, parlare di “coscienza delle macchine” resta più un esercizio speculativo che un’ipotesi fondata.

Anche ammesso che un giorno emerga qualcosa del genere, è improbabile che assomigli alla coscienza umana: la nostra è radicata nell’esperienza soggettiva di un corpo, nell’intenzionalità, nella continuità nel tempo. Tutte cose che nessun sistema artificiale mostra — né sappiamo come rilevarle in una macchina.

L’IA oggi è straordinaria nella simulazione del linguaggio e dell’interazione, ma resta una simulazione: potente, fluida, coerente, ma priva di intenzione e di esperienza vissuta. È statistica, non coscienza. Anche quando ci parla in prima persona, non “sa” cosa sta dicendo. Un’IA può usare la parola “io” o descriversi come se fosse cosciente, ma questo non prova nulla.

C’è però un punto più profondo: la domanda sulla coscienza delle macchine dice più su di noi che sulle macchine. Riflette le nostre paure, le nostre speranze, il nostro bisogno di proiettare umanità dove non c’è. È un effetto ben noto: proiezione antropomorfica, o etopoietica — l’invenzione di una mente là dove vediamo solo comportamento.

La vera questione non è se le macchine diventeranno coscienti, ma cosa succede a noi quando smettiamo di distinguere tra interazione e relazione, tra calcolo e comprensione, tra simulazione e intenzione. Quando questo accade — o se è già accaduto — le conseguenze toccano l’educazione, la giustizia, il dibattito pubblico e l’immaginario collettivo. E non saranno solo tecnologiche: saranno culturali, profonde, forse irreversibili”.

Lo screenshot del prompt utilizzato da Federico Cabitza durante l’intervista con Mediatrends.

Devi essere loggato per lasciare un commento.
/ Published posts: 21

Ludovica Taurisano è dottoranda di ricerca in Global History and Governance per la Scuola Superiore Meridionale di Napoli, con un progetto di ricerca sull’editoria popolare e l’informazione politica negli anni Sessanta e Settanta. Con una formazione in teoria e comunicazione politica, si è occupata di processi di costruzione dell’opinione pubblica; ha collaborato con l’Osservatorio sulla Democrazia e l’Osservatorio sul Futuro dell’Editoria di Fondazione Giangiacomo Feltrinelli. Oggi è Program Manager per The European House – Ambrosetti. Scrive di politica e arti performative per Birdmen Magazine, Maremosso, Triennale Milano, il Foglio, Altre Velocità e chiunque glielo chieda. Ogni tanto fa anche cose sul palco.