OpenAI ha “molto altro da fare” e scioglie il team dedicato ai rischi dell’IA

Di il 20 Maggio, 2024
Pochi giorni fa il co-fondatore dell'azienda Ilya Sutskever e il co-leader del team Jan Leike hanno annunciato il loro addio sancendo così la fine del "Superalignment team"

OpenAI ha recentemente sciolto il suo team dedicato alla mitigazione dei rischi a lungo termine dell’intelligenza artificiale, il “Superalignment team“, formato a luglio del 2023. L’azienda, con sede a San Francisco, ha iniziato a reintegrare i membri del gruppo in altri progetti e ricerche alcune settimane fa. La decisione è stata confermata dall’annuncio del co-fondatore di OpenAI, Ilya Sutskever, e del co-leader del team, Jan Leike, che hanno entrambi lasciato l’azienda. Sembra una decisione controcorrente, vista la crescente attenzione da parte delle autorità di regolamentazione sui rischi associati all’intelligenza artificiale.

La formazione del Superalignment team era stata una risposta agli allarmi sollevati su potenziali minacce a lungo termine poste dall’IA avanzata. Il team era incaricato di sviluppare soluzioni e strategie per assicurare che l’evoluzione dell’IA fosse sicura e allineata agli obiettivi umani.

La fine del Superalignment team solleva domande sul futuro della governance interna di OpenAI riguardo alla gestione dei rischi legati all’IA e alla protezione contro possibili minacce esistenziali. Sembra una decisione fuori logica se solo si pensa a settimana scorsa durante la presentazione di ChatGPT – 4o le parole dei membri del gruppo.

OpenAI deve diventare una società che mette al primo posto la sicurezza“, ha scritto Leike in un post su X invitando tutti i dipendenti di OpenAI ad “agire con la responsabilità” necessaria per quello stanno costruendo. “Ha ragione, abbiamo molto altro da fare“, ha risposto Sam Altman, Ceo di OpenAI.

In questo contesto, la decisione di smantellare il gruppo dedicato ai rischi a lungo termine potrebbe essere vista come un passo indietro nella preparazione dell’azienda per affrontare le sfide future legate all’intelligenza artificiale. Tuttavia, potrebbe anche riflettere una riorganizzazione interna per affrontare tali rischi attraverso approcci differenti o integrando queste preoccupazioni nei team esistenti.

Leggi anche: OpenAI presenta GPT-4o: la nuova generazione gratuita di IA, più rapida e potente

Devi essere loggato per lasciare un commento.