DeepMind, výzkumná laboratoř Google pro umělou inteligenci, vydala obsáhlou 145stránkovou práci, která popisuje její strategii pro zmírnění potenciálních nebezpečí obecné umělé inteligence (AGI)—umělé inteligence schopné vykonávat jakýkoli intelektuální úkol, který zvládne člověk. Práce, jejímž spoluautorem je spoluzakladatel DeepMind Shane Legg, předpovídá příchod toho, co nazývá Výjimečná AGI, před koncem dekády.
Podle zprávy Výjimečná AGI by odpovídala schopnostem nejlepších 1 % dospělých lidí v celé řadě kognitivních úkolů, včetně těch, které vyžadují metakognitivní schopnosti. DeepMind tvrdí, že tento typ inteligence může přinést transformační společenské přínosy, ale také závažné škody—včetně existenčních rizik, která by mohla ohrozit budoucnost lidstva.
Kontrastní filozofie ohledně bezpečnosti AGI
DeepMind staví svůj přístup jako více uzemněný ve srovnání s rivaly jako Anthropic a OpenAI, které kritizuje za buď podceňování robustních bezpečnostních opatření, nebo přehnaný důraz na automatizovaný výzkum zarovnání.
Zatímco OpenAI údajně nyní přesouvá svou pozornost na vývoj superinteligence, autoři DeepMind vyjadřují skepsi ohledně krátkodobé životaschopnosti takových systémů bez zásadních průlomů v architektuře. Nicméně považují rekurzivní sebezdokonalování—umělá inteligence zlepšující svůj vlastní design prostřednictvím výzkumu—za pravděpodobné a potenciálně nebezpečné.
Bezpečnostní plán, stále ve výstavbě
Na vysoké úrovni práce načrtává několik počátečních řešení, jako jsou:
- Blokování přístupu k systémům AGI pro škodlivé aktéry
- Zlepšení interpretovatelnosti pro lepší pochopení rozhodování AI
- "Zpevnění" prostředí, kde je AI nasazena, aby se předešlo zneužití
I přes uznání, že mnohé techniky zůstávají teoretické nebo nezralé, DeepMind vyzývá AI komunitu, aby neodkládala seriózní plánování bezpečnosti. "Pro odpovědné budování AGI," tvrdí autoři, "musí vývojáři na hranici proaktivně plánovat zmírňování závažných škod."
Odpověď akademické obce
Nicméně, ne všichni odborníci jsou přesvědčeni. Heidy Khlaaf, hlavní vědecká pracovnice pro AI v AI Now Institute, kritizovala rámec práce s tvrzením, že AGI je příliš vágní koncept pro přísné hodnocení.
Matthew Guzdial, asistent profesor na University of Alberta, také vyjádřil pochybnosti ohledně rekurzivního zlepšování. "Je to základ pro argumenty singularity, ale nikdy jsme neviděli žádné důkazy, že by to fungovalo," řekl.
Mezitím Sandra Wachter z Oxfordské univerzity upozornila na naléhavější problém: generativní AI modely se učí z nepřesných nebo halucinovaných dat. "Už nyní vidíme, že AI posiluje své vlastní chyby," varovala. "To je významný bezpečnostní problém."
Debata pokračuje
I když je publikace DeepMind jedním z nejpodrobnějších plánů k dnešnímu dni, nemusí přinést konsenzus. Neshody ohledně realizovatelnosti, časového plánu a rizikového profilu AGI přetrvávají—nechávají otevřenou otázku, jak nejlépe vyvážit rychlý pokrok s opatrností v jedné z technologicky nejrizikovějších oblastí.