DeepMind, el laboratorio de investigación de IA de Google, ha publicado un extenso documento de 145 páginas que detalla su estrategia para mitigar los posibles peligros de la Inteligencia Artificial General (AGI)—IA capaz de realizar cualquier tarea intelectual que pueda hacer un humano. El documento, coautor del cofundador de DeepMind Shane Legg, prevé la llegada de lo que denomina AGI Excepcional antes de fin de la década.
Según el informe, AGI Excepcional igualaría las capacidades del 1% superior de los adultos humanos en una amplia gama de tareas cognitivas, incluidas aquellas que requieren habilidades metacognitivas. DeepMind argumenta que este tipo de inteligencia puede traer beneficios transformadores para la sociedad, pero también graves perjuicios, incluidos riesgos existenciales que podrían amenazar el futuro de la humanidad.
Filosofías Contrastantes sobre la Seguridad de AGI
DeepMind posiciona su enfoque como más fundamentado que el de rivales como Anthropic y OpenAI, criticándolos por minimizar las medidas de seguridad robustas o por enfatizar demasiado la investigación de alineación automatizada.
Mientras que OpenAI ahora, según se informa, está enfocando su atención en desarrollar superinteligencia, los autores de DeepMind expresan escepticismo sobre la viabilidad a corto plazo de tales sistemas sin avances importantes en arquitectura. Sin embargo, consideran plausible, y potencialmente peligrosa, la mejora recursiva, es decir, la IA mejorando su propio diseño a través de la investigación.
Un Plan de Seguridad, Aún en Construcción
A un nivel alto, el documento describe varias soluciones en etapas tempranas, tales como:
- Bloquear el acceso a sistemas AGI por actores maliciosos
- Mejorar la interpretabilidad para comprender mejor la toma de decisiones de la IA
- "Fortalecer" los entornos donde se despliega la IA para prevenir el mal uso
A pesar de reconocer que muchas técnicas siguen siendo teóricas o inmaduras, DeepMind insta a la comunidad de IA a no retrasar la planificación seria de seguridad. "Para construir AGI de manera responsable,” argumentan los autores, "los desarrolladores de vanguardia deben planificar proactivamente para mitigar graves daños.”
Respuesta de la Comunidad Académica
Sin embargo, no todos los expertos están convencidos. Heidy Khlaaf, científica jefe de IA en el AI Now Institute, criticó el marco del documento, sugiriendo que AGI es un concepto demasiado vago para evaluar rigurosamente.
Matthew Guzdial, profesor asistente en la Universidad de Alberta, también expresó dudas sobre la mejora recursiva. "Es la base para los argumentos de singularidad, pero nunca hemos visto evidencia de que funcione,” dijo.
Mientras tanto, Sandra Wachter de la Universidad de Oxford destacó una preocupación más inmediata: los modelos de IA generativa aprendiendo de datos inexactos o alucinados. "Ya estamos viendo que la IA refuerza sus propios errores,” advirtió. "Eso es un problema de seguridad significativo.”
El Debate Continúa
Aunque la publicación de DeepMind es uno de los planes más detallados hasta la fecha, puede que no logre consenso. Las discrepancias sobre la viabilidad, cronograma y perfil de riesgo de la AGI persisten, dejando abierta la cuestión de cómo equilibrar mejor el progreso rápido con la precaución en uno de los frentes más importantes de la tecnología.