Berechnungen deuten darauf hin, dass es unmöglich sein wird, eine superintelligente KI zu kontrollieren

Ein Standbild aus dem Film „2001: Odyssee im Weltraum“. (MGM)

Die Idee von künstliche Intelligenz Vom Sturz der Menschheit ist seit jeher die Rede viele Jahrzehnte , und im Januar 2021 gaben Wissenschaftler ihr Urteil darüber ab, ob wir in der Lage sein würden, eine hochentwickelte Computer-Superintelligenz zu kontrollieren. Die Antwort? Mit ziemlicher Sicherheit nicht.

Der Haken daran ist, dass die Kontrolle einer Superintelligenz, die weit über das menschliche Verständnis hinausgeht, eine Simulation dieser Superintelligenz erfordern würde, die wir analysieren können. Aber wenn wir es nicht verstehen können, ist es unmöglich, eine solche Simulation zu erstellen.

Regeln wie „Menschen keinen Schaden zufügen“ können nicht festgelegt werden, wenn wir die Art von Szenarien, die eine KI entwickeln wird, nicht verstehen, schlagen die Autoren des Papiers von 2021 vor. Sobald ein Computersystem auf einer Ebene arbeitet, die über den Möglichkeiten unserer Programmierer liegt, können wir keine Grenzen mehr setzen.

„Eine Superintelligenz stellt ein grundlegend anderes Problem dar als diejenigen, die normalerweise unter dem Banner der ‚Roboterethik‘ untersucht werden.“ schrieben die Forscher .

„Das liegt daran, dass eine Superintelligenz vielfältig ist und daher möglicherweise in der Lage ist, eine Vielfalt von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für Menschen möglicherweise unverständlich, geschweige denn kontrollierbar sind.“

Ein Teil der Argumentation des Teams stammt aus der Halteproblem vorgeschlagen von Alan Turing im Jahr 1936. Das Problem besteht darin, zu wissen, ob ein Computerprogramm zu einer Schlussfolgerung und Antwort kommt (also anhält) oder ob es einfach in einer ewigen Schleife versucht, eine Antwort zu finden.

Wie Turing durch einige bewiesen hat kluge Mathematik , obwohl wir das für einige spezifische Programme wissen können, ist es logischerweise unmöglich, einen Weg zu finden, der es uns ermöglicht, das für jedes potenzielle Programm zu wissen, das jemals geschrieben werden könnte. Das bringt uns zurück zur KI, die in einem superintelligenten Zustand praktisch jedes mögliche Computerprogramm auf einmal in ihrem Speicher speichern könnte.

Jedes Programm, das beispielsweise geschrieben wurde, um zu verhindern, dass KI Menschen Schaden zufügt und die Welt zerstört, kann zu einem Ergebnis kommen (und stoppen) oder auch nicht – es ist für uns mathematisch unmöglich, so oder so absolut sicher zu sein, was bedeutet, dass es nicht eindämmbar ist.

„Tatsächlich macht dies den Eindämmungsalgorithmus unbrauchbar“, sagte er. sagte der Informatiker Iyad Rahwan , vom Max-Planck-Institut für Bildungsforschung in Deutschland im Januar.

Die Alternative dazu, der KI etwas Ethik beizubringen und ihr zu sagen, sie solle die Welt nicht zerstören – etwas, bei dem sich kein Algorithmus absolut sicher sein kann, sagen die Forscher – besteht darin, die Fähigkeiten der Superintelligenz einzuschränken. Es könnte beispielsweise von Teilen des Internets oder von bestimmten Netzwerken abgeschnitten sein.

Die aktuelle Studie lehnt diese Idee ebenfalls ab und legt nahe, dass sie die Reichweite der Forschung einschränken würde künstliche Intelligenz – Das Argument lautet: Wenn wir es nicht nutzen, um Probleme zu lösen, die über den menschlichen Horizont hinausgehen, warum sollten wir es dann überhaupt erschaffen?

Wenn wir die künstliche Intelligenz vorantreiben, wissen wir möglicherweise nicht einmal, wann eine Superintelligenz außerhalb unserer Kontrolle eintrifft, so unverständlich ist sie. Das heißt, wir müssen anfangen, einige zu fragen ernste Fragen über die Richtungen, in die wir gehen.

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction.“ sagte der Informatiker Manuel Cebrian , vom Max-Planck-Institut für Bildungsforschung. „Aber es gibt bereits Maschinen, die bestimmte wichtige Aufgaben selbstständig ausführen, ohne dass Programmierer vollständig verstehen, wie sie es gelernt haben.“

„Es stellt sich daher die Frage, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte.“

Die Forschung wurde im veröffentlicht Zeitschrift für künstliche Intelligenzforschung .

Eine Version dieses Artikels wurde erstmals im Januar 2021 veröffentlicht.

Über Uns

Die Veröffentlichung Unabhängiger, Nachgewiesener Fakten Von Berichten Über Gesundheit, Raum, Natur, Technologie Und Umwelt.