"Rise of the Machines" ist keine wahrscheinlich Zukunft (Op-Ed)
Michael Littman ist Professor für Informatik an der Brown University. Er ist Co-Leiter der Browns Humanity-Centered Robotik-Initiative, die darauf abzielt, die gesellschaftlichen Bedürfnisse und Einsatzgebiete von Mensch-Roboter-Interaktion zu dokumentieren sowie die ethischen, rechtlichen und wirtschaftlichen Fragen zu erforschen, die mit ihrer Entwicklung entstehen. Littman trug dieses Artikels Leben Wissenschaft Experten stimmen: Op-Ed & Einblicke.
Jede neue Technologie bringt eine eigene Horrorszenarien. Künstliche Intelligenz (KI) und Robotik sind keine Ausnahmen. In der Tat, prägte das Wort "Roboter" für ein Stück, 1920, die genau so ein Tag des jüngsten Gerichts für die Menschheit dramatisiert.
Anfang dieses Monats, ein offenen Brief über die Zukunft der künstlichen Intelligenz, unterzeichnet durch eine Reihe von hochkarätigen Wissenschaftlern und Unternehmern, spornte eine neue Runde von Eggen Schlagzeilen wie "Top Wissenschaftler haben eine ominöse Warnung über künstliche Intelligenz" und "Artificial Intelligence Experten Versprechen Protect Menschheit von Maschinen." Die Implikation ist, dass die Maschinen eines Tages Menschheit verdrängen werden.
Lasst uns eine Sache gerade: eine Welt, in denen Menschen versklavt oder durch superintelligent Maschinen unserer eigenen Schöpfung zerstört, ist reine Science-Fiction. Wie jede andere Technik AI hat Risiken und den nutzen, aber wir können nicht zulassen, dass Angst die Gespräch oder Guide KI-Forschung zu dominieren.
Dennoch ist die Idee der dramatisch verändert die Forschungsagenda AI AI "Sicherheit" konzentrieren die primäre Nachricht einer Gruppe nennt sich selbst die Zukunft leben Institut (FLI). FLI enthält eine Handvoll tiefe Denker und Persönlichkeiten des öffentlichen Lebens wie Elon Musk und Stephen Hawking und sorgt sich um den Tag in dem Menschheit überrollt durch leistungsfähige Programme Amok laufen ist. [Intelligente Roboter werden Menschen bis zum Jahr 2100, sagen Experten überholen]
So treffend beschrieben in dem Buch "Superintelligenz: Pfade, Gefahren, Strategien" (Oxford University Press, 2014), FLI Mitglied des Beirats und Oxford-basierte Philosoph Nick Bostrom, die Handlung entfaltet sich in drei Teile. Im ersten Teil – etwa, wo wir jetzt sind-Rechenleistung und intelligente Software entwickelt, mit wachsender Geschwindigkeit durch die Mühen der Wissenschaftler und Ingenieure. Als nächstes einen Durchbruch geschafft: Programme entstehen, die Intelligenz auf eine Stufe mit Menschen besitzen. Diese Programme auf immer schnellere Computer, verbessern sich extrem schnell, was zu einem entlaufenen "Intelligenzexplosion." Im dritten und letzten Akt einen einzigartigen Super-Intelligenz nimmt Halt — austricksen, Duellgegner und letztlich outcompeting die Gesamtheit der Menschheit und vielleicht das Leben selbst. End-Szene.
Werfen wir einen genaueren Blick auf diese apokalyptische Geschichte. Aus drei Teilen die erste ist in der Tat passiert jetzt und Bostrom bietet überzeugende und erhellende Einblicke in aktuelle und nahen Zukunft Technologie. Der dritte Teil ist eine philosophische toben die Folgen der intelligente Maschinen zu erkunden. Es ist der zweite Teil – die Intelligenzexplosion – nachweislich gegen das verstößt, was wir wissen, der Informatik und natürliche Intelligenz. [Geschichte der A.I.: künstliche Intelligenz (Infografik)]
Außer Kontrolle geratenen Intelligenz?
Der Begriff der Intelligenzexplosion entspringt das Moore'sche Gesetz, die Beobachtung, die die Geschwindigkeit von Computern seit den 1950er Jahren exponentiell zugenommen hat. Projekt dieser Trend nach vorne und wir sehen Computer mit der Rechenleistung der gesamten Menschheit innerhalb der nächsten Jahrzehnte. Es ist ein Sprung von dieser Idee, unkontrolliertes Wachstum der Maschinenintelligenz, jedoch gehen.
Einfallsreichtum ist nicht der einzige Engpass zu schnellere Computern zu entwickeln. Die Maschinen müssen tatsächlich gebaut werden, die reale Ressourcen erfordert. In der Tat, das Moore'sche Gesetz kommt mit exponentiell steigenden Produktionskosten sowie — Massenproduktion von Präzisionselektronik ist nicht billig. Darüber hinaus gibt es physikalische Grundgesetze — Quantumlimits —, die gebunden, wie schnell ein Transistor seine Arbeit tun kann. Non-Silizium-Technologien können diese Grenzen überwinden, aber solche Geräte bleiben spekulativ.
In Zusätzlich zu den physikalischen Gesetzen, wissen wir viel über die grundlegende Natur der Berechnung und seine Grenzen. Beispielsweise sind einige rechnerische Rätsel wie herauszufinden, wie man eine Reihe Faktor und damit knacken Online-Kryptographie-Systeme im Allgemeinen geglaubt unlösbar sein von einem schnellen Programm. Sie sind Teil einer Klasse von mathematisch definierte Probleme, die "NP-vollständig" was bedeutet, dass sie genau so hart wie jedes Problem, das nicht deterministische Weise gelöst werden kann (N) in polynomialer Zeit (P), und sie haben jeden Versuch einer skalierbaren Lösung widerstanden. Wie sich herausstellt, sind die rechnerische Probleme, die wir mit menschlicher Intelligenz verbinden bekannt, in dieser Klasse. [Wie Smart künstliche Intelligenz fortgeschritten ist? Versuchen Sie Vorschule]
Warten Sie eine Sekunde, könnte man sagen. Wie schafft es der menschliche Geist, mathematische Probleme zu lösen, dass Informatiker glauben nicht gelöst werden? Wissen wir nicht. Im großen und ganzen betrügen wir. Wir bauen ein Cartoon mentales Modell der Elemente der Welt, der uns interessiert, und dann das Verhalten dieser erfundenen Miniworld Sonde. Es ist ein Kompromiss zwischen Vollständigkeit und Lenkbarkeit in diese imaginären Mikrokosmen. Unsere Fähigkeit, vorschlagen und darüber nachzudenken und glaubwürdige Futures geht auf Kosten der Genauigkeit. Auch unter Berücksichtigung der Möglichkeit der Existenz der deutlich schnellere Computer, als wir heute haben ist es eine logische Unmöglichkeit, dass diese Computer genau die Realität schneller als die Realität selbst simulieren können.
Gegen die Anti-Ki-Ursache
Angesichts der allgemeinen Skepsis in der AI und Computer Science-Community über die Möglichkeit einer Intelligenz-Explosion FLI noch Unterstützung für seine Sache gewinnen will. Die Gruppe Brief fordert erhöhte Aufmerksamkeit auf die Maximierung der gesellschaftlichen Nutzen der Entwicklung von AI. Viele meiner geschätzten Kollegen unterzeichnet den Brief an ihre Unterstützung für die Bedeutung der Vermeidung von möglichen Gefahren der Technik zeigen. Aber ein paar wichtige Sätze in den Buchstaben wie "unsere KI-Systeme müssen was wir von ihnen wollen" stammen von der Presse als ein Eingeständnis, das KI-Forscher glauben, dass sie etwas schaffen können, das "gesteuert werden kann." Es bedeutet auch, dass KI-Forscher sind schlafend am Rad, blind auf die ominösen Möglichkeiten das ist schlichtweg falsch. [Künstliche Intelligenz: freundlich oder erschreckend?]
Klar zu sein, gibt es in der Tat Bedenken hinsichtlich der nahen Zukunft des AI-algorithmische Trader Absturz der Wirtschaft oder sensible Stromnetze Überreaktion zu Schwankungen und Herunterfahren Strom für große Schwaden der Bevölkerung. Außerdem gibt es ein Anliegen, dass systemische Verzerrungen in Wissenschaft und Wirtschaft zu verhindern, dass die unterrepräsentierte Minderheiten teilnehmen und dabei helfen, um das Wachstum der Informationstechnologie zu steuern. Diese sorgen sollte eine zentrale Rolle in der Entwicklung und Bereitstellung neuer Ideen. Aber fürchten, dass Prognosen der Computer plötzlich aufwachen und uns einschalten einfach nicht realistisch sind.
Ich begrüße eine offene Diskussion über wie AI robust und nützlich gemacht werden kann, und wie können wir Ingenieur intelligente Maschinen und Systeme, die Gesellschaft besser zu machen. Aber, lassen Sie uns bitte halten die Diskussion fest in das Reich der Vernunft und Hollywood-Drehbuchautoren die Roboter Aufstände überlassen.
Alle Experten stimmen Fragen und Debatten zu folgen – und werden Sie Teil der Diskussion – auf Facebook, Twitter und Google +. Die Meinungen sind die des Autors und spiegeln nicht unbedingt die Meinung des Herausgebers. Diese Version des Artikels erschien ursprünglich am Leben Wissenschaft.