Het framework van DeepMind is gericht op het verminderen van aanzienlijke risico's die gepaard gaan

Het framework van DeepMind is gericht op het verminderen van aanzienlijke risico's die gepaard gaan
  • Gepubliceerd: 2025/04/03

DeepMind, Google's AI-onderzoekscentrum, heeft een uitgebreide paper van 145 pagina's uitgebracht die zijn strategie uiteenzet voor het beperken van de potentiële gevaren van Artificial General Intelligence (AGI)—AI die in staat is om elke intellectuele taak uit te voeren die een mens kan. De paper, mede-auteur van DeepMind mede-oprichter Shane Legg, voorziet de komst van wat het Exceptional AGI noemt voor het einde van het decennium.

Volgens het rapport zou Exceptional AGI de capaciteiten van de top 1% van volwassen mensen evenaren over een breed scala aan cognitieve taken, inclusief taken die metacognitieve vaardigheden vereisen. DeepMind stelt dat dit soort intelligentie transformatieve maatschappelijke voordelen kan bieden, maar ook ernstige schade kan veroorzaken—waaronder existentiële risico's die de toekomst van de mensheid kunnen bedreigen.

Contrasterende Filosofieën over AGI-veiligheid

DeepMind positioneert zijn benadering als meer gefundeerd dan die van rivalen zoals Anthropic en OpenAI, en bekritiseert hen voor het onderwaarderen van robuuste beveiligingsmaatregelen of het overemphaseren van automatisch afstemmingsonderzoek.

Terwijl OpenAI naar verluidt nu zijn focus verlegt naar de ontwikkeling van superintelligentie, uiten de auteurs van DeepMind hun scepsis over de kortetermijnhaalbaarheid van dergelijke systemen zonder grote doorbraken in architectuur. Ze vinden echter dat recursieve zelfverbetering—AI die zijn eigen ontwerp verbetert door middel van onderzoek—plausibel en potentieel gevaarlijk is.

Een Veiligheidsroutekaart, Nog Onder Constructie

Op een hoog niveau schetst de paper verschillende oplossingen in een vroeg stadium, zoals:

  • Toegang tot AGI-systemen door kwaadwillende actoren blokkeren
  • De interpretatie verbeteren om AI-besluitvorming beter te begrijpen
  • Het "verharden" van omgevingen waar AI wordt ingezet om misbruik te voorkomen

Ondanks de erkenning dat veel technieken theoretisch of onvolwassen blijven, dringt DeepMind er bij de AI-gemeenschap op aan om serieuze veiligheidsplanning niet uit te stellen. "Om AGI verantwoordelijk te bouwen," stellen de auteurs, "moeten grensontwikkelaars proactief plannen om ernstige schade te beperken."

Tegenstand vanuit de Academische Gemeenschap

Echter, niet alle experts zijn overtuigd. Heidy Khlaaf, hoofd AI-wetenschapper bij het AI Now Institute, bekritiseerde de framing van de paper, suggererend dat AGI een te vaag concept is om rigoureus te evalueren.

Matthew Guzdial, assistent-professor aan de Universiteit van Alberta, uitte ook twijfels over recursieve verbetering. "Het is de basis voor singulariteitsargumenten, maar we hebben nooit enig bewijs gezien dat het werkt,” zei hij.

Ondertussen wees Sandra Wachter van de Universiteit van Oxford op een meer onmiddellijke zorg: generatieve AI-modellen die leren van onnauwkeurige of gehallucineerde data. "We zien al dat AI zijn eigen fouten versterkt,” waarschuwde ze. "Dat is een significant veiligheidsprobleem.”

Het Debat Gaat Door

Hoewel de publicatie van DeepMind een van de meest gedetailleerde routekaarten tot nu toe is, zal het mogelijk geen consensus brengen. De meningsverschillen over de haalbaarheid, tijdlijn en risicoprofiel van AGI blijven bestaan—waardoor de vraag open blijft hoe snelle vooruitgang het beste kan worden gebalanceerd met voorzichtigheid in een van de meest risicovolle technologiegebieden.

Met CLAILA kun je wekelijks uren besparen bij het maken van lange content.

Gratis Beginnen