Cadrul DeepMind urmărește să atenueze riscurile semnificative generate de AGI

Cadrul DeepMind urmărește să atenueze riscurile semnificative generate de AGI
  • Publicat: 2025/04/03

DeepMind, laboratorul de cercetare AI al Google, a lansat un amplu document de 145 de pagini care descrie strategia sa pentru a atenua potențialele pericole ale Inteligenței Generale Artificiale (AGI)—AI capabilă să îndeplinească orice sarcină intelectuală pe care o poate realiza un om. Documentul, co-autor de co-fondatorul DeepMind, Shane Legg, prevede sosirea a ceea ce numește AGI Excepțională înainte de sfârșitul deceniului.

Conform raportului, AGI Excepțională ar egala capacitățile celor mai buni 1% dintre adulții umani într-o gamă largă de sarcini cognitive, inclusiv cele care necesită abilități metacognitive. DeepMind susține că acest tip de inteligență ar putea aduce beneficii transformatoare societății, dar și daune severe—incluzând riscuri existențiale care ar putea amenința viitorul umanității.

Filozofii Contradictorii privind Securitatea AGI

DeepMind își poziționează abordarea ca fiind mai ancorată în realitate decât cea a rivalilor precum Anthropic și OpenAI, criticându-i fie pentru subestimarea măsurilor de securitate robuste, fie pentru supraestimarea cercetării automate a alinierii.

În timp ce se raportează că OpenAI își îndreaptă acum atenția spre dezvoltarea superinteligenței, autorii DeepMind își exprimă scepticismul cu privire la viabilitatea pe termen scurt a unor astfel de sisteme fără descoperiri majore în arhitectură. Cu toate acestea, ei consideră că îmbunătățirea recursivă de sine—AI care își îmbunătățește propriul design prin cercetare—este plauzibilă și potențial periculoasă.

O Foaie de Parcurs pentru Siguranță, Încă în Construcție

La un nivel general, documentul prezintă câteva soluții în stadiu incipient, cum ar fi:

  • Blocarea accesului actorilor rău intenționați la sistemele AGI
  • Îmbunătățirea interpretabilității pentru a înțelege mai bine deciziile AI
  • „Întărirea” mediilor în care AI este implementată pentru a preveni utilizarea abuzivă

Deși recunoaște că multe tehnici rămân teoretice sau imature, DeepMind îndeamnă comunitatea AI să nu amâne planificarea serioasă a securității. „Pentru a construi AGI în mod responsabil,” argumentează autorii, „dezvoltatorii de frontieră trebuie să planifice proactiv pentru a atenua daunele severe.”

Reacții din Partea Comunității Academice

Cu toate acestea, nu toți experții sunt convinși. Heidy Khlaaf, om de știință șef în domeniul AI la AI Now Institute, a criticat încadratura documentului, sugerând că AGI este un concept prea vag pentru a fi evaluat riguros.

Matthew Guzdial, profesor asistent la Universitatea Alberta, și-a exprimat de asemenea îndoielile cu privire la îmbunătățirea recursivă. "Este baza argumentelor singularității, dar nu am văzut niciodată vreo dovadă că funcționează,” a spus el.

Între timp, Sandra Wachter de la Universitatea Oxford a subliniat o preocupare mai imediată: modelele AI generative care învață din date inexacte sau halucinate. "Deja vedem cum AI își întărește propriile erori,” a avertizat ea. "Aceasta este o problemă semnificativă de siguranță.”

Dezbaterea Continuă

Deși publicația DeepMind este una dintre cele mai detaliate foi de parcurs de până acum, s-ar putea să nu aducă consens. Disensiunile privind fezabilitatea, cronologia și profilul de risc al AGI persistă—lăsând deschisă întrebarea cum să se echilibreze cel mai bine progresul rapid cu precauția într-unul dintre cele mai riscante domenii ale tehnologiei.

Cu CLAILA poți economisi ore în fiecare săptămână creând conținut lung.

Începe Gratuit