DeepMind, Googles AI-forskningslaboratorium, har gitt ut et omfattende 145-siders dokument som skisserer deres strategi for å redusere de potensielle farene ved Artificial General Intelligence (AGI)—AI i stand til å utføre enhver intellektuell oppgave et menneske kan. Dokumentet, medforfattet av DeepMind-medgründer Shane Legg, forutser ankomsten av det de kaller Eksepsjonell AGI før slutten av tiåret.
Ifølge rapporten vil Eksepsjonell AGI matche evnene til de øverste 1% av voksne mennesker på tvers av et bredt spekter av kognitive oppgaver, inkludert de som krever metakognitive evner. DeepMind argumenterer for at denne typen intelligens kan bringe transformative samfunnsmessige fordeler, men også alvorlige skader—inkludert eksistensielle risikoer som kan true menneskehetens fremtid.
Kontrasterende Filosofier om AGI-sikkerhet
DeepMind posisjonerer sin tilnærming som mer jordnær enn den til rivaler som Anthropic og OpenAI, og kritiserer dem for enten å bagatellisere robuste sikkerhetstiltak eller overfokusere på automatisert tilpasningsforskning.
Mens det nå rapporteres at OpenAI retter fokuset mot å utvikle superintelligens, uttrykker DeepMinds forfattere skepsis til den kortsiktige levedyktigheten av slike systemer uten store gjennombrudd i arkitektur. De finner imidlertid rekursiv selvforbedring—AI som forbedrer sitt eget design gjennom forskning—som plausibelt, og potensielt farlig.
En Sikkerhetsplan, Fortsatt Under Utvikling
På et overordnet nivå skisserer dokumentet flere tidlige løsninger, som:
- Blokkere tilgang til AGI-systemer av ondsinnede aktører
- Forbedre tolkbarhet for bedre å forstå AI-beslutningstaking
- "Forsterke" miljøer der AI distribueres for å forhindre misbruk
Til tross for å erkjenne at mange teknikker fortsatt er teoretiske eller umodne, oppfordrer DeepMind AI-samfunnet til ikke å utsette seriøs sikkerhetsplanlegging. "For å bygge AGI ansvarlig," argumenterer forfatterne, "må frontlinjeutviklere proaktivt planlegge for å redusere alvorlige skader."
Motstand Fra Den Akademiske Verden
Imidlertid er ikke alle eksperter overbevist. Heidy Khlaaf, sjef AI-forsker ved AI Now Institute, kritiserte dokumentets innramming og antydet at AGI er et for vagt konsept til å bli evaluert grundig.
Matthew Guzdial, assisterende professor ved University of Alberta, uttrykte også tvil om rekursiv forbedring. "Det er grunnlaget for singularitetsargumenter, men vi har aldri sett bevis for at det fungerer," sa han.
I mellomtiden fremhevet Sandra Wachter ved Oxford University en mer umiddelbar bekymring: generative AI-modeller som lærer av unøyaktige eller hallusinerte data. "Vi ser allerede at AI forsterker sine egne feil," advarte hun. "Det er et betydelig sikkerhetsproblem."
Debatten Fortsetter
Selv om DeepMinds publikasjon er blant de mest detaljerte veikartene til dags dato, kan det hende den ikke fører til enighet. Uenighetene om AGIs gjennomførbarhet, tidslinje, og risikoprofil vedvarer—og etterlater spørsmålet åpent om hvordan man best balanserer rask fremgang med forsiktighet i en av teknologiens mest høyrisiko fronter.