DeepMinds rammeværk sigter mod at mindske betydelige risici forbundet med AGI

DeepMinds rammeværk sigter mod at mindske betydelige risici forbundet med AGI
  • Udgivet: 2025/04/03

DeepMind, Googles AI-forskningslaboratorium, har udgivet et omfattende 145-siders dokument, der skitserer deres strategi for at afbøde de potentielle farer ved Artificial General Intelligence (AGI)—AI, der er i stand til at udføre enhver intellektuel opgave, som et menneske kan. Dokumentet, medforfattet af DeepMind-medstifter Shane Legg, forudser ankomsten af det, de kalder Exceptional AGI inden udgangen af årtiet.

Ifølge rapporten vil Exceptional AGI matche evnerne hos de øverste 1% af voksne mennesker på tværs af en bred vifte af kognitive opgaver, inklusive dem, der kræver metakognitive evner. DeepMind argumenterer for, at denne form for intelligens kan bringe transformative samfundsmæssige fordele, men også alvorlige skader—herunder eksistentielle risici, der kunne true menneskehedens fremtid.

Kontrasterende filosofier om AGI-sikkerhed

DeepMind positionerer deres tilgang som mere jordnær end rivaler som Anthropic og OpenAI, og kritiserer dem for enten at nedtone robuste sikkerhedsforanstaltninger eller overbetone automatiseret tilpasningsforskning.

Mens OpenAI angiveligt nu fokuserer på at udvikle superintelligens, udtrykker DeepMinds forfattere skepsis omkring den kortsigtede anvendelighed af sådanne systemer uden større gennembrud i arkitektur. Dog finder de rekursiv selvforbedring—AI, der forbedrer sit eget design gennem forskning—plausibel og potentielt farlig.

En sikkerhedsplan, stadig under konstruktion

På et overordnet niveau skitserer dokumentet flere løsninger i de tidlige stadier, såsom:

  • Blokere adgang til AGI-systemer for ondsindede aktører
  • Forbedre forståeligheden for bedre at forstå AI-beslutningstagning
  • "Hærde" miljøer, hvor AI er implementeret for at forhindre misbrug

På trods af at mange teknikker stadig er teoretiske eller umodne, opfordrer DeepMind AI-fællesskabet til ikke at udsætte seriøs sikkerhedsplanlægning. "For at bygge AGI ansvarligt,” argumenterer forfatterne, "skal pionerudviklere proaktivt planlægge for at afbøde alvorlige skader."

Modstand fra det akademiske samfund

Dog er ikke alle eksperter overbeviste. Heidy Khlaaf, chef-AI-forsker ved AI Now Institute, kritiserede dokumentets indramning og foreslog, at AGI er et for vagt koncept til at evaluere strengt.

Matthew Guzdial, assisterende professor ved University of Alberta, udtrykte også tvivl om rekursiv forbedring. "Det er grundlaget for singularitetsargumenter, men vi har aldrig set nogen beviser for, at det virker,” sagde han.

I mellemtiden fremhævede Sandra Wachter fra Oxford University en mere umiddelbar bekymring: generative AI-modeller, der lærer af unøjagtige eller hallucinerede data. "Vi ser allerede AI forstærke sine egne fejl,” advarede hun. "Det er et betydeligt sikkerhedsproblem.”

Debatten fortsætter

Selvom DeepMinds publikation er blandt de mest detaljerede køreplaner til dato, kan den måske ikke skabe konsensus. Uenighederne om AGI's gennemførlighed, tidslinje og risikoprofil vedbliver—hvilket efterlader spørgsmålet åbent om, hvordan man bedst balancerer hurtig fremgang med forsigtighed i en af teknologiens mest højrisikable fronter.

Med CLAILA kan du spare timer hver uge på at skabe langformat indhold.

Start Gratis