O framework da DeepMind visa mitigar riscos significativos apresentados pela AGI

O framework da DeepMind visa mitigar riscos significativos apresentados pela AGI
  • Publicado: 2025/04/03

DeepMind, o laboratório de pesquisa em IA do Google, lançou um extenso documento de 145 páginas que descreve sua estratégia para mitigar os potenciais perigos da Inteligência Artificial Geral (AGI)—IA capaz de realizar qualquer tarefa intelectual que um humano pode. O documento, coautorado pelo cofundador da DeepMind, Shane Legg, prevê a chegada do que chama de AGI Excepcional antes do final da década.

De acordo com o relatório, o AGI Excepcional igualaria as capacidades do 1% superior dos adultos humanos em uma ampla gama de tarefas cognitivas, incluindo aquelas que exigem habilidades metacognitivas. A DeepMind argumenta que este tipo de inteligência pode trazer benefícios transformadores para a sociedade, mas também danos severos — incluindo riscos existenciais que poderiam ameaçar o futuro da humanidade.

Filosofias Contrastantes sobre a Segurança da AGI

A DeepMind posiciona sua abordagem como mais fundamentada do que a de rivais como Anthropic e OpenAI, criticando-os por subestimarem medidas de segurança robustas ou por darem ênfase excessiva à pesquisa de alinhamento automatizado.

Enquanto a OpenAI está agora, supostamente, voltando seu foco para desenvolver superinteligência, os autores da DeepMind expressam ceticismo sobre a viabilidade de curto prazo de tais sistemas sem avanços significativos em arquitetura. No entanto, eles consideram a melhoria recursiva de si mesma—IA melhorando seu próprio design através da pesquisa—plausível e potencialmente perigosa.

Um Roteiro de Segurança, Ainda em Construção

Em um nível elevado, o documento descreve várias soluções iniciais, tais como:

  • Bloquear o acesso a sistemas AGI por atores maliciosos
  • Melhorar a interpretabilidade para compreender melhor a tomada de decisões da IA
  • "Endurecer" os ambientes onde a IA é implantada para prevenir o uso indevido

Apesar de reconhecer que muitas técnicas ainda são teóricas ou imaturas, a DeepMind insta a comunidade de IA a não adiar o planejamento sério de segurança. "Para construir AGI de forma responsável,” argumentam os autores, "os desenvolvedores de fronteira devem planejar proativamente para mitigar danos severos.”

Reação da Comunidade Acadêmica

No entanto, nem todos os especialistas estão convencidos. Heidy Khlaaf, cientista-chefe de IA do AI Now Institute, criticou a formulação do documento, sugerindo que AGI é um conceito muito vago para ser avaliado rigorosamente.

Matthew Guzdial, professor assistente na Universidade de Alberta, também expressou dúvidas sobre a melhoria recursiva. "É a base para argumentos de singularidade, mas nunca vimos qualquer evidência de que funcione,” ele disse.

Enquanto isso, Sandra Wachter da Universidade de Oxford destacou uma preocupação mais imediata: modelos de IA generativa aprendendo a partir de dados imprecisos ou alucinações. "Já estamos vendo a IA reforçar seus próprios erros,” ela alertou. "Isso é uma questão de segurança significativa.”

O Debate Continua

Embora a publicação da DeepMind seja um dos roteiros mais detalhados até hoje, ela pode não trazer consenso. As discordâncias sobre a viabilidade, o cronograma e o perfil de risco do AGI persistem—deixando em aberto a questão de como melhor equilibrar o progresso rápido com a cautela em uma das fronteiras de tecnologia mais arriscadas.

Com o CLAILA você pode economizar horas toda semana criando conteúdo de formato longo.

Comece Gratuitamente