DeepMinds ramverk syftar till att mildra betydande risker som orsakas av AGI

DeepMinds ramverk syftar till att mildra betydande risker som orsakas av AGI
  • Publicerad: 2025/04/03

DeepMind, Googles forskningslabb för AI, har släppt en omfattande rapport på 145 sidor som beskriver dess strategi för att mildra de potentiella farorna med Artificial General Intelligence (AGI)—AI som kan utföra alla intellektuella uppgifter som en människa kan. Rapporten, medförfattad av DeepMinds medgrundare Shane Legg, förutser ankomsten av vad den kallar Exceptionell AGI innan årtiondets slut.

Enligt rapporten skulle Exceptionell AGI matcha kapaciteten hos de bästa 1% av vuxna människor över ett brett spektrum av kognitiva uppgifter, inklusive de som kräver metakognitiva förmågor. DeepMind argumenterar för att denna typ av intelligens kan ge samhälleliga fördelar, men också allvarliga skador—inklusive existentiella risker som kan hota mänsklighetens framtid.

Kontrasterande filosofier om AGI-säkerhet

DeepMind positionerar sitt tillvägagångssätt som mer grundat än rivaler som Anthropic och OpenAI, och kritiserar dem för att antingen tona ner robusta säkerhetsåtgärder eller överbetona automatiserad anpassningsforskning.

Medan OpenAI nu rapporteras inrikta sig på att utveckla superintelligens, uttrycker DeepMinds författare skepsis om kortsiktig genomförbarhet för sådana system utan stora genombrott i arkitektur. De finner dock rekursiv självförbättring—AI som förbättrar sin egen design genom forskning—som trovärdig och potentiellt farlig.

En säkerhetsplan, fortfarande under konstruktion

På en övergripande nivå beskriver rapporten flera tidiga lösningar, såsom:

  • Blockera åtkomst till AGI-system av illvilliga aktörer
  • Förbättra tolkbarhet för att bättre förstå AI-beslutsfattande
  • "Förstärka" miljöer där AI distribueras för att förhindra missbruk

Trots att många tekniker fortfarande är teoretiska eller omogna, uppmanar DeepMind AI-gemenskapen att inte fördröja allvarlig säkerhetsplanering. "För att bygga AGI ansvarsfullt”, argumenterar författarna, "måste frontutvecklare proaktivt planera för att mildra allvarliga skador.”

Motstånd från den akademiska världen

Men inte alla experter är övertygade. Heidy Khlaaf, chefsforskare inom AI vid AI Now Institute, kritiserade rapportens inramning och föreslog att AGI är ett för vagt koncept för att utvärderas rigoröst.

Matthew Guzdial, biträdande professor vid University of Alberta, uttryckte också tvivel om rekursiv förbättring. "Det är grunden för singularitetsargument, men vi har aldrig sett några bevis för att det fungerar,” sa han.

Under tiden lyfte Sandra Wachter vid Oxford University fram en mer omedelbar oro: generativa AI-modeller som lär sig från felaktiga eller hallucinerade data. "Vi ser redan AI förstärka sina egna fel,” varnade hon. "Det är ett betydande säkerhetsproblem.”

Debatten fortsätter

Medan DeepMinds publikation är en av de mest detaljerade färdplanerna hittills, kanske den inte leder till konsensus. Oenigheterna om AGI:s genomförbarhet, tidslinje och riskprofil kvarstår—vilket lämnar frågan öppen om hur man bäst balanserar snabb framsteg med försiktighet i en av teknikens mest riskfyllda gränser.

Med CLAILA kan du spara timmar varje vecka när du skapar långformat innehåll.

Börja Gratis