DeepMind, le laboratoire de recherche en IA de Google, a publié un document exhaustif de 145 pages décrivant sa stratégie pour atténuer les dangers potentiels de l'Intelligence Artificielle Générale (AGI)—une IA capable d'effectuer toute tâche intellectuelle qu'un humain peut réaliser. Le document, co-écrit par le co-fondateur de DeepMind Shane Legg, prévoit l'arrivée de ce qu'il appelle l'AGI Exceptionnelle avant la fin de la décennie.
Selon le rapport, l'AGI Exceptionnelle égalerait les capacités du top 1% des adultes humains dans une vaste gamme de tâches cognitives, y compris celles nécessitant des capacités métacognitives. DeepMind soutient que ce type d'intelligence pourrait apporter des avantages sociétaux transformateurs, mais aussi des dommages sévères—y compris des risques existentiels qui pourraient menacer l'avenir de l'humanité.
Philosophies Contradictoires sur la Sécurité de l'AGI
DeepMind positionne son approche comme plus ancrée que celle de ses rivaux comme Anthropic et OpenAI, les critiquant pour avoir soit minimisé les mesures de sécurité robustes soit suraccentué la recherche d'alignement automatisée.
Alors que l'on rapporte qu'OpenAI concentre maintenant ses efforts sur le développement de la superintelligence, les auteurs de DeepMind expriment leur scepticisme quant à la viabilité à court terme de tels systèmes sans avancées majeures en architecture. Cependant, ils trouvent plausible, et potentiellement périlleuse, l'auto-amélioration récursive—une IA améliorant son propre design par la recherche.
Une Feuille de Route pour la Sécurité, Encore en Construction
À un niveau élevé, le document décrit plusieurs solutions en phase initiale, telles que :
- Bloquer l'accès aux systèmes AGI par des acteurs malveillants
- Améliorer l'interprétabilité pour mieux comprendre la prise de décision de l'IA
- "Renforcer" les environnements où l'IA est déployée pour prévenir les abus
Bien qu'il reconnaisse que de nombreuses techniques restent théoriques ou immatures, DeepMind exhorte la communauté de l'IA à ne pas retarder les plans de sécurité sérieux. "Pour construire l'AGI de manière responsable”, soutiennent les auteurs, "les développeurs de pointe doivent planifier de manière proactive pour atténuer les dommages sévères.”
Réactions de la Communauté Académique
Cependant, tous les experts ne sont pas convaincus. Heidy Khlaaf, scientifique en chef de l'IA à l'AI Now Institute, a critiqué le cadrage du document, suggérant que l'AGI est un concept trop vague pour être évalué rigoureusement.
Matthew Guzdial, professeur assistant à l'Université de l'Alberta, a également exprimé des doutes sur l'amélioration récursive. "C'est la base des arguments sur la singularité, mais nous n'avons jamais vu de preuves qu'elle fonctionne,” a-t-il déclaré.
Pendant ce temps, Sandra Wachter de l'Université d'Oxford a souligné une préoccupation plus immédiate : les modèles d'IA générative apprenant à partir de données inexactes ou hallucinées. "Nous voyons déjà l'IA renforcer ses propres erreurs,” a-t-elle averti. "C'est un problème de sécurité significatif.”
Le Débat Continue
Bien que la publication de DeepMind soit l'une des feuilles de route les plus détaillées à ce jour, elle pourrait ne pas aboutir à un consensus. Les désaccords sur la faisabilité, le calendrier et le profil de risque de l'AGI persistent—laissant ouverte la question de savoir comment mieux équilibrer progrès rapide et prudence dans l'un des domaines technologiques les plus cruciaux.