DeepMind, Googlen tekoälytutkimuslaboratorio, on julkaissut kattavan 145-sivuisen asiakirjan, jossa se hahmottelee strategiaansa yleisen tekoälyn (AGI) – tekoälyn, joka kykenee suorittamaan mitä tahansa ihmisen älyllistä tehtävää – potentiaalisten vaarojen lieventämiseksi. Asiakirjan, jonka toinen kirjoittaja on DeepMindin perustaja Shane Legg, ennustaa poikkeuksellisen AGI:n saapuvan ennen vuosikymmenen loppua.
Raportin mukaan poikkeuksellinen AGI vastaisi parhaimpaan 1 % ihmisaikuisista laajassa kognitiivisten tehtävien kirjossa, mukaan lukien metakognitiivisia kykyjä vaativat tehtävät. DeepMind väittää, että tällainen älykkyys voi tuoda mukanaan yhteiskunnallisia mullistuksia, mutta myös vakavia haittoja – mukaan lukien eksistentiaaliset riskit, jotka voisivat uhata ihmiskunnan tulevaisuutta.
Vastakkaisia näkemyksiä AGI:n turvallisuudesta
DeepMind asettaa lähestymistapansa maanläheisemmäksi kuin kilpailijansa Anthropic ja OpenAI, kritisoiden heitä joko vahvojen turvatoimenpiteiden vähättelystä tai automaattisen yhdenmukaisuustutkimuksen korostamisesta.
Kun OpenAI:n kerrotaan nyt keskittyvän superälykkyyden kehittämiseen, DeepMindin kirjoittajat suhtautuvat skeptisesti sellaisten järjestelmien lyhyen aikavälin käyttökelpoisuuteen ilman suuria läpimurtoja arkkitehtuurissa. Kuitenkin he pitävät rekursiivista itsensä parantamista – AI:n omaa suunnittelunsa parantamista tutkimuksen avulla – mahdollisena ja potentiaalisesti vaarallisena.
Turvallisuussuunnitelma, joka on vielä rakenteilla
Yleisellä tasolla asiakirja hahmottelee useita alkuvaiheen ratkaisuja, kuten:
- Estetään pääsy AGI-järjestelmiin pahantahtoisilta toimijoilta
- Parannetaan tulkittavuutta, jotta AI:n päätöksentekoa ymmärretään paremmin
- "Kovennetaan" ympäristöjä, joissa AI on käytössä väärinkäytön estämiseksi
Huolimatta siitä, että monet tekniikat ovat edelleen teoreettisia tai kypsymättömiä, DeepMind kehottaa tekoälyyhteisöä olemaan viivyttelemättä vakavaa turvallisuussuunnittelua. "Rakentaakseen AGI:ta vastuullisesti," kirjoittajat väittävät, "edelläkävijäkehittäjien on aktiivisesti suunniteltava vakavien haittojen lieventämistä."
Akateemisen yhteisön vastalauseet
Kaikki asiantuntijat eivät kuitenkaan ole vakuuttuneita. Heidy Khlaaf, AI Now Institute -instituutin päätekoälytutkija, kritisoi asiakirjan kehystä, ehdottaen, että AGI on liian epämääräinen käsite arvioitavaksi tiukasti.
Matthew Guzdial, Albertan yliopiston apulaisprofessori, ilmaisi myös epäilyksensä rekursiivista parannusta kohtaan. "Se on singulariteettiargumenttien perusta, mutta emme ole koskaan nähneet mitään todisteita siitä, että se toimisi," hän sanoi.
Samaan aikaan Sandra Wachter Oxfordin yliopistosta nosti esiin ajankohtaisemman huolen: generatiiviset AI-mallit oppivat epätarkasta tai harhaluuloisesta datasta. "Näemme jo nyt AI:n vahvistavan omia virheitään," hän varoitti. "Se on merkittävä turvallisuusongelma."
Keskustelu jatkuu
Vaikka DeepMindin julkaisu on yksi yksityiskohtaisimmista tiekartoista tähän mennessä, se ei ehkä tuo yksimielisyyttä. Erimielisyydet AGI:n toteutettavuudesta, aikataulusta ja riskiprofiilista jatkuvat – jättäen avoimeksi kysymyksen siitä, miten parhaiten tasapainottaa nopea edistyminen ja varovaisuus yhdessä teknologian suurimmista riskialttiista rajoista.