OpenAI sta rafforzando il proprio team di lobbisti per navigare un contesto regolamentare sempre più complesso. Con il crescente interesse dei regolatori verso i modelli avanzati di intelligenza artificiale, la start-up di San Francisco ha aumentato significativamente il numero dei componenti l’ufficio di global affairs, passando da tre persone all’inizio del 2023 a 35, con l’obiettivo di raggiungere 50 entro la fine del 2024.
Come racconta il Financial Times, questo team, sebbene rappresenti una piccola frazione dei 1.200 dipendenti totali, è tra i più internazionali dell’azienda, operando in aree chiave come Belgio, Regno Unito, Irlanda, Francia, Singapore, India, Brasile e Stati Uniti, dove la legislazione sull’AI è avanzata.
Il team di global affairs di OpenAI
La nuova squadra vede figure di spicco come Chris Lehane, ex assistente di Bill Clinton e Al Gore, e Jakob Kucharczyk, ex responsabile della concorrenza di Meta, impegnate nel posizionare l’azienda come leader influente nella regolamentazione dell’AI, contrastando le visioni che vedono l’AI con la stessa sfiducia riservata in passato alle aziende della Silicon Valley.
Nonostante l’espansione, OpenAI rimane indietro rispetto a Big Tech come Meta e Google in termini di spese e risorse impiegate per influenzare la politica. Nel primo trimestre di quest’anno, Meta ha speso 7,6 milioni di dollari negli Stati Uniti, Google 3,1 milioni di dollari, mentre OpenAI solo 340.000 dollari.
Non mancano voci critiche all’interno del settore che sostengono che OpenAI stia semplicemente adottando le tradizionali tattiche di lobbying delle Big Tech, mirando a modellare le leggi in modi che favoriscano la propria crescita anziché affrontare le implicazioni etiche e sociali dei suoi prodotti.
L’AI Act dell’Unione europea
OpenAi è stata anche coinvolta nel processo che ha portato alla formulazione dell’AI Act dell’Unione europea, approvato quest’anno, che rappresenta uno degli sforzi legislativi più significativi volti a regolamentare i potenti strumenti di intelligenza artificiale.
L’azienda guidata da Sam Altman è stata particolarmente attiva nel dibattito, sostenendo che alcuni dei suoi modelli non avrebbero dovuto essere classificati come “alto rischio”, il che avrebbe comportato regole più stringenti. Nonostante le resistenze iniziali, il testo finale ha incluso i modelli più avanzati di OpenAI nell’ambito di applicazione della legge.
L’Ue ha anche deciso che per i sistemi di AI ad alto rischio, le autorità di regolamentazione potranno richiedere l’accesso ai dati di addestramento per assicurare la loro correttezza e l’assenza di distorsioni.