Wie AI Menschlichkeit, nach intelligenten Menschen ruinieren könnte
Für die letzten 24 Stunden haben Wissenschaftler Futter bis um zu diesem offenen Brief zu unterzeichnen. Einfach ausgedrückt, fordert der Vorschlag, dass die Menschheit widmen einen Teil der KI-Forschung "mit menschlichen Interessen ausrichten." Das heißt, versuchen wir zu vermeiden, Erstellen eigener mechanisierte Reiter der Apokalypse.
Während einige Wissenschaftler bei jeder Erwähnung einer Singularität, viele Experten und Techniker, die die Augen verdrehen könnte – wie, sagen wir, Stephen Hawking und Elon Musk — haben davor gewarnt, die Gefahren, die AI könnte für unsere Zukunft darstellen. Aber während sie uns weiterhin unsere AI-bezogene Studien mit Vorsicht drängen könnte, sie sind ein bisschen weniger klar, auf was genau es ist, dass wir gegen vorsichtig sein. Zum Glück haben andere gerne in diese Lücken gefüllt. Hier sind fünf der bedrohlichen Zerstörung von Singularität Prophezeiungen, die, denen unsere hellsten Köpfe gewarnt haben.
Maschinen nehmen unsere Arbeitsplätze
Nach Stuart Armstrong, Philosoph und Research Fellow an der Future of Humanity Institute in Oxford:
Die ersten Auswirkungen der [KI] Technologie ist in der Nähe von Arbeitslosen. Sie könnte eine KI zu nehmen, sei es der menschlichen Ebene Intelligenz, kopieren es hundertmal, in hundert verschiedenen Berufen ausbilden, kopieren die hundert Mal und Sie haben zehntausend hochrangige Mitarbeiter in hundert Berufen ausgebildet, vielleicht im Laufe der Woche. Oder Sie könnten es mehr kopieren und haben Millionen von Arbeitnehmern... Und wären sie wahrhaft übermenschliche bekäme Sie Leistung über was ich gerade beschrieben habe.
Menschen werden nur in die Quere kommen.
Daniel Dewey, Research Fellow an der Zukunft der Menschheit Institut baut auf Armstrongs Gedankengang in Aeon Zeitschrift. Wann und ob Menschen obsolet geworden, werden wir immerhin kaum mehr als Kieselsteine in einem Roboter metaphorische Schuhe geworden.
"Der Unterschied in der Intelligenz zwischen Mensch und Schimpanse ist winzig," [Armstrong] sagte. "Aber in diesem Unterschied liegt den Kontrast zwischen 7 Milliarden Einwohner und einen festen Platz auf der Liste bedrohter Arten. Das sagt uns, dass es möglich ist für einen relativ geringen Intelligenz Vorteil schnell verschlimmern und entscheidend geworden."
.... "Das Grundproblem ist, dass die starke Realisierung die meisten Motive unvereinbar mit der menschlichen Existenz ist," erzählte Dewey. "Eine AI wollen vielleicht bestimmte Dinge mit Materie um ein Ziel, Dinge wie Gebäude riesigen Computer oder andere technische Großprojekte zu erreichen. Diese Dinge können Zwischenschritte wie zerreißen der Erde riesige Sonnenkollektoren zu beinhalten. Eine Superintelligenz könnte nicht nehmen unsere Interessen Rücksicht in solchen Situationen wie berücksichtigen wir nicht Wurzelsysteme oder Ameisenkolonien wenn wir gehen, um ein Gebäude zu errichten."
Man konnte es eine wohlwollende Ziel geben – etwas kuschelig und Gebrauchsgegenstände, wie menschliches Glück zu maximieren. Aber eine AI könnte denken, dass menschliches Glück eine biochemische Phänomen ist. Es könnte denken, dass Hochwasser die Blutbahn mit nicht-letalen Dosen von Heroin ist der beste Weg, um Ihr Glück zu maximieren.
Künstliche Intelligenz wird nicht tatsächlich so Intelligent sein.
AI braucht nicht die ausdrückliche Absicht, uns ausrotten beängstigend sein. Wie Mark Bishop, Professor für kognitive computing am Goldsmiths College, University of London, The Independentberichtete:
Ich bin besonders besorgt über die möglichen Militäreinsatz von Robotersystemen Waffen-Systeme, die beschließen können, ohne menschliches Zutun – militärisch zu engagieren, gerade weil aktuelle AI nicht sehr gut ist und kann nur allzu leicht Situationen eskalieren mit potenziell erschreckenden Folgen,"Professor Bischof sagte.
"So ist es leicht zu stimmen, dass AI birgt eine sehr reale"existenzielle Bedrohung"für die Menschheit ohne sich vorzustellen, dass es jemals das Niveau der übermenschliche Intelligenz erreichen," sagte er. Wir sollten besorgt über AI sein, aber für den entgegengesetzten Gründen von Professor Hawking gegeben, erklärte er.
Wall-E-Syndrom
Oder vielleicht sehen wir das Ende, lange bevor es seinen Weg über macht. Außer, dass bis dahin werden wir auch inkompetent zu überleben, auch nur zu versuchen, ihn herunterzufahren. Bill Joy, Mitbegründer und Chief Scientist von Sun Microsystems, schreibt in Wired:
Was wir vorschlagen, ist, dass die menschliche Rasse leicht, selbst in eine Position einer solchen Abhängigkeit auf den Maschinen treiben erlauben könnte, dass es keine praktische Wahl hätte, sondern alle die Maschinen Entscheidungen akzeptieren. Gesellschaft und die Probleme, mit denen es konfrontiert immer komplexer werden und Maschinen werden immer intelligenter, lässt Menschen Maschinen machen mehr aus ihren Entscheidungen für sie, einfach weil maschinell gefertigte Entscheidungen bessere Ergebnisse als die von Menschen verursachten bringt. Schließlich kann ein Stadium erreicht werden, bei dem die Entscheidungen notwendig, das System am laufen zu halten so komplex werden, dass der Mensch nicht in der Lage, sie intelligent machen werden. In diesem Stadium werden die Maschinen in wirksame Kontrolle. Menschen werden nicht in der Lage, die Maschinen auszuschalten, denn sie werden so abhängig von ihnen, die sie deaktivieren Selbstmord gleichkäme.
Die Roboter werden effektiv uns Essen
Gibt es etwas das Szenario "graues Goo" genannt, das was im Wesentlichen, dass postuliert wenn Roboter starten ständig reproduzieren, wir werden im Wesentlichen nur bekommen ausgepresst inmitten der massiven Mecha-Erweiterung. Und wenn sie Menschen brauchen um ihre Out-of-Control-Massen macht — Entdeckung weist darauf hin, wir sind verschraubt.
Wenn Nanotechnologie Maschinen – was kann ein hunderttausend Mal kleiner als der Durchmesser eines menschlichen Haares – herausfinden, wie man spontan selbst replizieren, müsste natürlich fatale Folgen für die Menschheit [Quelle: Levin]. Vor allem, wenn die Forschung durch das US-Verteidigungsministerium finanziert außer Kontrolle Gerät: Forscher versuchen, eine energetisch autonome taktische Roboter (EATR) zu erstellen, die sich durch den Verzehr von Schlachtfeld Schutt, darunter menschliche Leichen Kraftstoff würde [Quelle: Lewinski].
Wenn Nanotechnologie Appetit auf Menschenfleisch entwickelt haben – oder einige der anderen Dinge zum Überleben, wie Wälder oder Maschinen setzen wir auf – es könnte alles auf dem Planeten in einer Angelegenheit von Tagen zu dezimieren. Diese hungrigen Mini-Roboter verweisen würde unsere blau und grün zu Hause auf "graues Goo", ein Begriff, der beschreibt, die nicht identifizierbare Partikel zurückgelassen, nachdem die Nanocritters, Gebäude Essen, Landschaften und, naja, alles andere.