DeepMind, o laboratório de pesquisa em IA do Google, lançou um extenso documento de 145 páginas delineando sua estratégia para mitigar os potenciais perigos da Inteligência Artificial Geral (AGI)—IA capaz de realizar qualquer tarefa intelectual que um humano pode realizar. O documento, co-autorado pelo cofundador da DeepMind Shane Legg, prevê a chegada do que chama de AGI Excepcional antes do final da década.
De acordo com o relatório, a AGI Excepcional igualaria as capacidades do 1% superior dos adultos humanos em uma ampla gama de tarefas cognitivas, incluindo aquelas que exigem habilidades metacognitivas. A DeepMind argumenta que esse tipo de inteligência pode trazer benefícios transformadores para a sociedade, mas também danos severos—incluindo riscos existenciais que poderiam ameaçar o futuro da humanidade.
Filosofias Contrastantes sobre a Segurança da AGI
A DeepMind posiciona sua abordagem como mais fundamentada do que a de rivais como Anthropic e OpenAI, criticando-os por minimizarem medidas de segurança robustas ou por enfatizarem excessivamente a pesquisa de alinhamento automatizada.
Enquanto a OpenAI está agora supostamente voltando seu foco para desenvolver superinteligência, os autores da DeepMind expressam ceticismo sobre a viabilidade dessas sistemas no curto prazo sem grandes avanços em arquitetura. No entanto, eles consideram melhoria recursiva—IA melhorando seu próprio design através da pesquisa—plausível e potencialmente perigosa.
Um Roteiro de Segurança, Ainda em Construção
Em um nível alto, o documento delineia várias soluções em estágio inicial, tais como:
- Bloquear o acesso a sistemas AGI por atores maliciosos
- Melhorar a interpretabilidade para entender melhor a tomada de decisão da IA
- "Endurecer" os ambientes onde a IA é implantada para prevenir uso indevido
Apesar de reconhecer que muitas técnicas ainda são teóricas ou imaturas, a DeepMind urge a comunidade de IA a não adiar o planejamento sério de segurança. "Para construir AGI de forma responsável”, argumentam os autores, "os desenvolvedores de fronteira devem planejar proativamente para mitigar danos severos.”
Resistência da Comunidade Acadêmica
No entanto, nem todos os especialistas estão convencidos. Heidy Khlaaf, cientista chefe de IA do AI Now Institute, criticou a estrutura do documento, sugerindo que AGI é um conceito muito vago para ser avaliado rigorosamente.
Matthew Guzdial, professor assistente na Universidade de Alberta, também expressou dúvidas sobre a melhoria recursiva. "É a base para argumentos de singularidade, mas nunca vimos evidências de que funcione”, disse ele.
Enquanto isso, Sandra Wachter da Universidade de Oxford destacou uma preocupação mais imediata: modelos de IA generativa aprendendo com dados imprecisos ou alucinatórios. "Já estamos vendo a IA reforçar seus próprios erros,” alertou ela. "Isso é uma questão significativa de segurança.”
O Debate Continua
Embora a publicação da DeepMind seja um dos roteiros mais detalhados até agora, pode não trazer consenso. As discordâncias sobre a viabilidade, o cronograma e o perfil de risco da AGI persistem—deixando em aberto a questão de como melhor equilibrar progresso rápido com cautela em uma das fronteiras tecnológicas de maior risco.