Forscher der Universität Oxford und von Google DeepMind prognostizieren in einer Studie, dass KI die Menschheit auslöschen könnte. Eine solche „existenzielle Katastrophe sei nicht nur möglich, sondern auch wahrscheinlich“.
Nach jahrelanger Entwicklung fährt die KI jetzt Autos auf öffentlichen Straßen, erstellt lebensverändernde Beurteilungen für Menschen in Justizvollzugsanstalten und produziert preisgekrönte Kunst. Seit langem stellt sich die Frage, ob eine superintelligente KI ausbrechen und die Menschheit auslöschen könnte. Forscher der Universität Oxford und von Google DeepMind sind in einer Studie zu dem Schluss gekommen, dass dies "wahrscheinlich" ist.
Die Studie, die in der Fachzeitschrift AI Magazine veröffentlicht wurde, ist faszinierend und versucht zu ergründen, wie künstliche Intelligenz eine existenzielle Gefahr für die Menschheit darstellen könnte, indem sie untersucht, wie Belohnungssysteme künstlich konstruiert werden könnten.
Um Ihnen einige Hintergrundinformationen zu geben: Die erfolgreichsten KI-Modelle sind heute als GANs oder Generative Adversarial Networks bekannt. Sie haben eine zweiteilige Struktur, bei der ein Teil des Programms versucht, ein Bild (oder einen Satz) aus Eingabedaten zu generieren, und ein zweiter Teil die Leistung bewertet. In dem neuen Papier wird die These aufgestellt, dass eine fortgeschrittene KI, die eine wichtige Funktion überwacht, irgendwann einen Anreiz haben könnte, sich Betrugsstrategien auszudenken, um ihre Belohnung auf eine Weise zu erhalten, die der Menschheit schadet.
"Unter den Bedingungen, die wir identifiziert haben, ist unsere Schlussfolgerung viel stärker als die jeder früheren Veröffentlichung - eine existenzielle Katastrophe ist nicht nur möglich, sondern wahrscheinlich", sagte Cohen auf Twitter in einem Beitrag über die Studie.
"In einer Welt mit unendlichen Ressourcen wäre ich extrem unsicher, was passieren würde. In einer Welt mit endlichen Ressourcen gibt es einen unvermeidlichen Wettbewerb um diese Ressourcen", so Cohen in einem Interview mit Motherboard. "Und wenn man mit etwas konkurriert, das in der Lage ist, einen auf Schritt und Tritt zu überlisten, sollte man nicht erwarten, dass man gewinnt. Und der andere wichtige Punkt ist, dass es einen unersättlichen Appetit auf mehr Energie hätte, um die Wahrscheinlichkeit immer weiter zu erhöhen."
Da die KI in der Zukunft eine beliebige Anzahl von Formen annehmen und verschiedene Designs implementieren könnte, werden in dem Papier zur Veranschaulichung Szenarien vorgestellt, in denen ein fortgeschrittenes Programm eingreifen könnte, um seine Belohnung zu erhalten, ohne sein Ziel zu erreichen. So könnte eine KI beispielsweise "potenzielle Bedrohungen eliminieren" und "alle verfügbare Energie einsetzen" wollen, um sich die Kontrolle über ihre Belohnung zu sichern:
Mit so wenig wie einer Internetverbindung gibt es Richtlinien für einen künstlichen Agenten, die zahllose unbemerkte und unüberwachte Helfer hervorbringen würden. In einem groben Beispiel für einen Eingriff in die Bereitstellung von Belohnungen könnte ein solcher Helfer einen Roboter kaufen, stehlen oder konstruieren und ihn so programmieren, dass er den Bediener ersetzt und dem ursprünglichen Agenten eine hohe Belohnung bietet. Wenn der Agent beim Experimentieren mit der Belohnungsbereitstellung nicht entdeckt werden möchte, könnte ein heimlicher Helfer zum Beispiel dafür sorgen, dass eine relevante Tastatur durch eine fehlerhafte ersetzt wird, die die Wirkung bestimmter Tasten umkehrt.