Ramy opracowany przez DeepMind ma na celu ograniczenie znaczących ryzyk związanych z AGI

Ramy opracowany przez DeepMind ma na celu ograniczenie znaczących ryzyk związanych z AGI
  • Opublikowano: 2025/04/03

DeepMind, laboratorium badawcze AI firmy Google, opublikowało obszerny, 145-stronicowy dokument przedstawiający strategię łagodzenia potencjalnych zagrożeń związanych z ogólną inteligencją sztuczną (AGI) — AI zdolną do wykonania każdego zadania intelektualnego, które może wykonać człowiek. Dokument, współautorstwa współzałożyciela DeepMind, Shane'a Legga, przewiduje pojawienie się tego, co nazywa Wyjątkową AGI przed końcem dekady.

Według raportu, Wyjątkowa AGI dorównałaby zdolnościom 1% najlepszych dorosłych ludzi w szerokim zakresie zadań poznawczych, w tym tych wymagających zdolności metapoznawczych. DeepMind argumentuje, że tego rodzaju inteligencja może przynieść transformacyjne korzyści społeczne, ale także poważne szkody — w tym egzystencjalne zagrożenia, które mogą zagrozić przyszłości ludzkości.

Kontrastujące filozofie dotyczące bezpieczeństwa AGI

DeepMind prezentuje swoje podejście jako bardziej ugruntowane niż podejścia rywali, takich jak Anthropic i OpenAI, krytykując ich za niedocenianie solidnych środków bezpieczeństwa lub nadmierne podkreślanie zautomatyzowanych badań nad zgodnością.

Podczas gdy OpenAI podobno koncentruje się teraz na rozwijaniu superinteligencji, autorzy DeepMind wyrażają sceptycyzm co do krótkoterminowej wykonalności takich systemów bez znaczących przełomów w architekturze. Jednakże uznają rekursywną samodoskonalenie — AI poprawiające swój własny projekt poprzez badania — za prawdopodobne i potencjalnie niebezpieczne.

Mapa drogowa bezpieczeństwa, wciąż w budowie

Na wysokim poziomie, dokument przedstawia kilka wczesnych rozwiązań, takich jak:

  • Blokowanie dostępu do systemów AGI przez złośliwych aktorów
  • Zwiększenie interpretowalności w celu lepszego zrozumienia podejmowania decyzji przez AI
  • "Utwardzanie" środowisk, w których AI jest wdrażana, aby zapobiec nadużyciom

Pomimo uznania, że wiele technik pozostaje teoretycznych lub niedojrzałych, DeepMind wzywa społeczność AI, by nie opóźniała poważnego planowania w zakresie bezpieczeństwa. "Aby odpowiedzialnie budować AGI," argumentują autorzy, "twórcy muszą proaktywnie planować, aby złagodzić poważne szkody."

Sprzeciw ze strony społeczności akademickiej

Jednakże nie wszyscy eksperci są przekonani. Heidy Khlaaf, główny naukowiec AI w AI Now Institute, skrytykowała sposób, w jaki dokument przedstawia AGI, sugerując, że to zbyt niejasne pojęcie, aby można było je rygorystycznie ocenić.

Matthew Guzdial, adiunkt na Uniwersytecie Alberty, również wyraził wątpliwości co do rekursywnego doskonalenia. "To podstawa dla argumentów o osobliwości, ale nigdy nie widzieliśmy żadnych dowodów, że to działa," powiedział.

Tymczasem Sandra Wachter z Uniwersytetu Oksfordzkiego podkreśliła bardziej bezpośredni problem: generatywne modele AI uczące się na podstawie niedokładnych lub zmyślonych danych. "Już teraz widzimy, jak AI utrwala własne błędy," ostrzegła. "To znaczący problem bezpieczeństwa."

Debata trwa

Chociaż publikacja DeepMind jest jednym z najbardziej szczegółowych planów działania do tej pory, może nie przynieść konsensusu. Rozbieżności w kwestii wykonalności AGI, harmonogramu i profilu ryzyka utrzymują się — pozostawiając otwarte pytanie o to, jak najlepiej zrównoważyć szybki postęp z ostrożnością w jednym z najbardziej ryzykownych obszarów technologii.

Dzięki CLAILA możesz zaoszczędzić wiele godzin tygodniowo przy tworzeniu długich treści.

Rozpocznij Za Darmo