A DeepMind keretrendszere célja az AGI által jelentett jelentős kockázatok mérséklése

A DeepMind keretrendszere célja az AGI által jelentett jelentős kockázatok mérséklése
  • Közzétéve: 2025/04/03

DeepMind, a Google AI kutatólaboratóriuma, egy átfogó, 145 oldalas tanulmányt tett közzé, amely felvázolja stratégiáját az Általános Mesterséges Intelligencia (AGI) - az emberi szintű intellektuális feladatok elvégzésére képes AI - potenciális veszélyeinek mérséklésére. A tanulmányt, amelyet Shane Legg, a DeepMind társalapítója is társszerzőként jegyez, egy Kivételes AGI érkezését jósolja az évtized vége előtt.

A jelentés szerint a Kivételes AGI az emberi felnőttek legfelső 1%-ának képességeivel vetekedne a kognitív feladatok széles skáláján, beleértve azokat, amelyek metakognitív képességeket igényelnek. A DeepMind azt állítja, hogy az ilyen intelligencia átalakító társadalmi előnyöket hozhat, ugyanakkor súlyos ártalmakat is okozhat, beleértve azokat az egzisztenciális kockázatokat, amelyek az emberiség jövőjét fenyegethetik.

Ellentétes filozófiák az AGI biztonságáról

A DeepMind a saját megközelítését a riválisok, mint például az Anthropic és az OpenAI megközelítésénél megalapozottabbnak tartja, kritizálva őket vagy azért, mert alábecsülik a robusztus biztonsági intézkedéseket, vagy azért, mert túlzottan hangsúlyozzák az automatizált igazodási kutatást.

Miközben az OpenAI állítólag most a szuperintelligencia fejlesztésére összpontosít, a DeepMind szerzői szkeptikusak az ilyen rendszerek rövid távú megvalósíthatóságával kapcsolatban, hacsak nem történnek jelentős áttörések az architektúrában. Mindazonáltal a rekurzív önfejlesztést - az AI saját terveinek kutatásokkal történő javítását - valószínűnek és potenciálisan veszélyesnek találják.

Egy még épülő biztonsági útiterv

Magas szinten a tanulmány több korai stádiumú megoldást vázol fel, mint például:

  • Az AGI rendszerekhez való hozzáférés blokkolása rosszindulatú szereplők által
  • Az interpretálhatóság javítása az AI döntéshozatalának jobb megértése érdekében
  • Az AI alkalmazásának helyszíneinek "megerősítése" a visszaélések megelőzése érdekében

Bár elismerik, hogy sok technika még elméleti vagy kiforratlan, a DeepMind sürgeti az AI közösséget, hogy ne késlekedjen a komoly biztonsági tervezéssel. "Ahhoz, hogy felelősségteljesen építsünk AGI-t," érvelnek a szerzők, "a határfejlesztőknek proaktívan kell tervezniük a súlyos ártalmak mérséklését."

Ellenállás az akadémiai közösségtől

Azonban nem minden szakértő győződött meg. Heidy Khlaaf, az AI Now Institute fő AI tudósa kritizálta a tanulmány keretezését, javasolva, hogy az AGI túl homályos fogalom ahhoz, hogy szigorúan értékelhessük.

Matthew Guzdial, az Alberta Egyetem adjunktusa szintén kétségeit fejezte ki a rekurzív javítással kapcsolatban. "Ez az alapja a szingularitási érveknek, de soha nem láttunk bizonyítékot arra, hogy ez működik," mondta.

Eközben Sandra Wachter az Oxfordi Egyetemről egy közvetlenebb aggályt emelt ki: a generatív AI modellek pontatlan vagy hallucinált adatokból való tanulását. "Már most látjuk, hogy az AI saját hibáit erősíti meg," figyelmeztetett. "Ez jelentős biztonsági kérdés."

A vita folytatódik

Bár a DeepMind publikációja az egyik legrészletesebb útiterv a mai napig, lehet, hogy nem hoz konszenzust. A viták az AGI megvalósíthatóságáról, idővonaláról és kockázati profiljáról továbbra is fennállnak, nyitva hagyva a kérdést, hogyan lehet a legjobban egyensúlyozni a gyors fejlődést az óvatossággal a technológia egyik legnagyobb téttel bíró határterületén.

A CLAILA használatával hetente több órát takaríthatsz meg hosszú formátumú tartalmak létrehozásakor.

Kezdjen Ingyen