Der Rahmen von DeepMind zielt darauf ab, bedeutende Risiken zu mindern, die durch AGI entstehen

Der Rahmen von DeepMind zielt darauf ab, bedeutende Risiken zu mindern, die durch AGI entstehen
  • Veröffentlicht: 2025/04/03

DeepMind, Googles KI-Forschungslabor, hat ein umfassendes 145-seitiges Papier veröffentlicht, das seine Strategie zur Minderung der potenziellen Gefahren von Künstlicher Allgemeiner Intelligenz (AGI) — KI, die in der Lage ist, jede intellektuelle Aufgabe zu erfüllen, die ein Mensch kann — darlegt. Das gemeinsam mit DeepMind-Mitbegründer Shane Legg verfasste Papier sieht die Ankunft dessen, was es als Exzeptionelle AGI bezeichnet, noch vor dem Ende des Jahrzehnts voraus.

Laut dem Bericht würde Exzeptionelle AGI die Fähigkeiten der besten 1% der erwachsenen Menschen in einer Vielzahl kognitiver Aufgaben erreichen, einschließlich solcher, die metakognitive Fähigkeiten erfordern. DeepMind argumentiert, dass diese Art von Intelligenz transformative gesellschaftliche Vorteile bringen, aber auch erhebliche Schäden verursachen könnte — einschließlich existenzieller Risiken, die die Zukunft der Menschheit bedrohen könnten.

Kontrastierende Philosophien zur AGI-Sicherheit

DeepMind positioniert seinen Ansatz als bodenständiger im Vergleich zu Rivalen wie Anthropic und OpenAI und kritisiert diese dafür, entweder robuste Sicherheitsmaßnahmen herunterzuspielen oder automatisierte Alignment-Forschung überzubetonen.

Während OpenAI Berichten zufolge nun seinen Fokus auf die Entwicklung von Superintelligenz richtet, äußern DeepMinds Autoren Skepsis hinsichtlich der kurzfristigen Umsetzbarkeit solcher Systeme ohne bedeutende Durchbrüche in der Architektur. Sie halten jedoch rekursive Selbstverbesserung — KI, die ihr eigenes Design durch Forschung verbessert — für plausibel und potenziell gefährlich.

Ein Sicherheitsfahrplan, noch im Aufbau

Auf einer höheren Ebene skizziert das Papier mehrere Lösungen im Frühstadium, wie:

  • Sperrung des Zugangs zu AGI-Systemen durch böswillige Akteure
  • Verbesserung der Interpretierbarkeit zur besseren Verständnisfindung von KI-Entscheidungen
  • "Härtung" der Umgebungen, in denen KI eingesetzt wird, um Missbrauch zu verhindern

Trotz der Anerkennung, dass viele Techniken theoretisch oder unreif bleiben, drängt DeepMind die KI-Gemeinschaft, ernsthafte Sicherheitsplanungen nicht zu verzögern. "Um AGI verantwortungsvoll zu entwickeln", argumentieren die Autoren, "müssen Grenzentwickler proaktiv planen, um schwerwiegende Schäden zu mindern."

Gegenwind aus der akademischen Gemeinschaft

Jedoch sind nicht alle Experten überzeugt. Heidy Khlaaf, Chef-KI-Wissenschaftlerin am AI Now Institute, kritisierte die Darstellung des Papiers und schlug vor, dass AGI ein zu vages Konzept sei, um es rigoros zu bewerten.

Matthew Guzdial, Assistenzprofessor an der University of Alberta, äußerte ebenfalls Zweifel an der rekursiven Verbesserung. "Es ist die Grundlage für Singularitätsargumente, aber wir haben nie Beweise dafür gesehen, dass es funktioniert," sagte er.

In der Zwischenzeit hob Sandra Wachter von der Oxford University eine dringlichere Sorge hervor: generative KI-Modelle, die aus ungenauen oder halluzinierten Daten lernen. "Wir sehen bereits, wie KI ihre eigenen Fehler verstärkt," warnte sie. "Das ist ein erhebliches Sicherheitsproblem."

Die Debatte geht weiter

Obwohl DeepMinds Veröffentlichung zu den bisher detailliertesten Fahrplänen gehört, wird sie möglicherweise keinen Konsens bringen. Die Uneinigkeit über die Machbarkeit, den Zeitrahmen und das Risikoprofil von AGI bleibt bestehen — und lässt die Frage offen, wie man am besten schnellen Fortschritt mit Vorsicht in einem der risikoreichsten Bereiche der Technologie in Einklang bringt.

Mit CLAILA können Sie jede Woche Stunden bei der Erstellung von Long-Form-Content sparen.

Kostenlos Starten