Rámec spoločnosti DeepMind sa zameriava na zmiernenie významných rizík predstavovaných AGI

Rámec spoločnosti DeepMind sa zameriava na zmiernenie významných rizík predstavovaných AGI
  • Publikované: 2025/04/03

DeepMind, výskumné laboratórium AI spoločnosti Google, zverejnilo rozsiahlu 145-stranovú správu, ktorá načrtáva jej stratégiu na zmiernenie potenciálnych nebezpečenstiev všeobecnej umelej inteligencie (AGI)—AI schopnej vykonávať akúkoľvek intelektuálnu úlohu, ktorú môže vykonať človek. Správa, ktorú spoluautorom je spoluzakladateľ DeepMind Shane Legg, predpokladá príchod toho, čo nazýva Výnimočná AGI pred koncom desaťročia.

Podľa správy by Výnimočná AGI zodpovedala schopnostiam top 1 % dospelých ľudí v širokom spektre kognitívnych úloh, vrátane tých, ktoré vyžadujú metakognitívne schopnosti. DeepMind tvrdí, že tento druh inteligencie môže priniesť transformujúce spoločenské prínosy, ale aj závažné škody—vrátane existenčných rizík, ktoré by mohli ohroziť budúcnosť ľudstva.

Kontrastné filozofie o bezpečnosti AGI

DeepMind pozicionuje svoj prístup ako viac zakotvený než prístup rivalov ako Anthropic a OpenAI, pričom ich kritizuje za buď podceňovanie robustných bezpečnostných opatrení alebo nadmerné zdôrazňovanie automatizovaného výskumu zarovnania.

Zatiaľ čo OpenAI údajne teraz zameriava svoju pozornosť na vývoj superinteligencie, autori DeepMind vyjadrujú skepticizmus o krátkodobej životaschopnosti takýchto systémov bez zásadných prelomov v architektúre. Avšak považujú rekurzívne sebazlepšovanie—AI zlepšujúca svoj vlastný dizajn prostredníctvom výskumu—za pravdepodobné a potenciálne nebezpečné.

Bezpečnostná cestovná mapa, stále vo výstavbe

Na vysokej úrovni správa načrtáva niekoľko riešení v počiatočnom štádiu, ako napríklad:

  • Blokovanie prístupu k systémom AGI zo strany zlomyseľných aktérov
  • Zlepšenie interpretovateľnosti na lepšie pochopenie rozhodovania AI
  • "Spevnenie" prostredí, kde je AI nasadená, aby sa zabránilo zneužitiu

Aj keď priznáva, že mnohé techniky zostávajú teoretické alebo nezrelé, DeepMind vyzýva komunitu AI, aby neodkladala vážne plánovanie bezpečnosti. "Aby sme zodpovedne vybudovali AGI,” argumentujú autori, "vývojári na hranici musia proaktívne plánovať, ako zmierniť závažné škody.”

Odpor z akademickej komunity

Nie všetci odborníci sú však presvedčení. Heidy Khlaaf, hlavný vedec pre AI v AI Now Institute, kritizovala rámcové zameranie správy a naznačila, že AGI je príliš nejasný koncept na rigorózne hodnotenie.

Matthew Guzdial, asistent profesor na University of Alberta, tiež vyjadril pochybnosti o rekurzívnom zlepšovaní. "Je to základ pre argumenty singularity, ale nikdy sme nevideli žiadne dôkazy, že by to fungovalo,” povedal.

Medzitým Sandra Wachter z Oxfordskej univerzity poukázala na aktuálnejší problém: generatívne AI modely, ktoré sa učia z nepresných alebo halucinovaných údajov. "Už vidíme, ako AI posilňuje svoje vlastné chyby,” varovala. "To je významný bezpečnostný problém.”

Diskusia pokračuje

Aj keď je publikácia DeepMind jedným z najpodrobnejších plánov cesty doteraz, nemusí priniesť konsenzus. Neshody ohľadom uskutočniteľnosti, časového harmonogramu a rizikového profilu AGI pretrvávajú—nechávajúc otvorenú otázku, ako najlepšie vyvážiť rýchly pokrok s opatrnosťou v jednej z najrizikovejších hraníc technológie.

S CLAILA môžete každý týždeň ušetriť hodiny pri vytváraní dlhého obsahu.

Začať Zadarmo