Il framework di DeepMind mira a mitigare i rischi significativi posti dall'AGI

Il framework di DeepMind mira a mitigare i rischi significativi posti dall'AGI
  • Pubblicato: 2025/04/03

DeepMind, il laboratorio di ricerca sull'IA di Google, ha pubblicato un ampio documento di 145 pagine che delinea la sua strategia per mitigare i potenziali pericoli dell'Intelligenza Artificiale Generale (AGI)—un'IA capace di svolgere qualsiasi compito intellettuale che un essere umano può fare. Il documento, co-autore del co-fondatore di DeepMind Shane Legg, prevede l'arrivo di quella che chiama AGI Eccezionale prima della fine del decennio.

Secondo il rapporto, l'AGI Eccezionale eguaglierebbe le capacità del top 1% degli adulti umani in una vasta gamma di compiti cognitivi, inclusi quelli che richiedono abilità metacognitive. DeepMind sostiene che questo tipo di intelligenza potrebbe portare benefici trasformativi alla società, ma anche gravi danni, inclusi rischi esistenziali che potrebbero minacciare il futuro dell'umanità.

Filosofie a Confronto sulla Sicurezza dell'AGI

DeepMind posiziona il suo approccio come più radicato rispetto a quello di rivali come Anthropic e OpenAI, criticandoli per aver sminuito misure di sicurezza robuste o per aver enfatizzato eccessivamente la ricerca sull'allineamento automatico.

Mentre OpenAI sta ora apparentemente concentrando la sua attenzione sullo sviluppo di superintelligenza, gli autori di DeepMind esprimono scetticismo sulla fattibilità a breve termine di tali sistemi senza importanti innovazioni nell'architettura. Tuttavia, trovano miglioramento auto-ricorsivo—l'IA che migliora il proprio design attraverso la ricerca—plausibile e potenzialmente pericoloso.

Una Tabella di Marcia per la Sicurezza, Ancora in Costruzione

A un livello elevato, il documento delinea diverse soluzioni in fase iniziale, come:

  • Bloccare l'accesso ai sistemi AGI da parte di attori malintenzionati
  • Migliorare l'interpretabilità per comprendere meglio il processo decisionale dell'IA
  • "Rafforzare" gli ambienti in cui l'IA è impiegata per prevenire abusi

Nonostante il riconoscimento che molte tecniche rimangano teoriche o immature, DeepMind esorta la comunità dell'IA a non ritardare una seria pianificazione per la sicurezza. "Per costruire AGI in modo responsabile", sostengono gli autori, "gli sviluppatori di frontiera devono pianificare proattivamente per mitigare i gravi danni."

Critiche dalla Comunità Accademica

Tuttavia, non tutti gli esperti sono convinti. Heidy Khlaaf, capo scienziato dell'IA presso l'AI Now Institute, ha criticato l'inquadramento del documento, suggerendo che l'AGI sia un concetto troppo vago per essere valutato rigorosamente.

Matthew Guzdial, professore assistente presso l'Università di Alberta, ha anche espresso dubbi sul miglioramento ricorsivo. "È la base per gli argomenti sulla singolarità, ma non abbiamo mai visto alcuna prova che funzioni," ha detto.

Nel frattempo, Sandra Wachter dell'Università di Oxford ha evidenziato una preoccupazione più immediata: i modelli di IA generativa che apprendono da dati inaccurati o allucinati. "Stiamo già vedendo l'IA rafforzare i propri errori," ha avvertito. "È un problema significativo di sicurezza."

Il Dibattito Continua

Sebbene la pubblicazione di DeepMind sia tra le tabelle di marcia più dettagliate fino ad oggi, potrebbe non portare consenso. Le discordie sulla fattibilità, la tempistica e il profilo di rischio dell'AGI persistono, lasciando aperta la questione di come meglio bilanciare il rapido progresso con la cautela in uno dei fronti tecnologici più ad alto rischio.

Con CLAILA puoi risparmiare ore ogni settimana nella creazione di contenuti long-form.

Inizia Gratuitamente