Menschlichkeit muss "Gefängnis" gefährliche AI zur Vermeidung von Doom, sagt Experte
Superintelligenten Computer oder Roboter haben der Menschheit mehr als einmal in der Science Fiction bedroht. Diese Weltuntergangs-Szenarien könnten verhindert werden, wenn Menschen eine virtuelle Gefängnis um künstliche Intelligenz enthalten, bevor es gefährlich selbstbewusste wächst erstellen können.
Die künstliche Intelligenz (KI)-Genie in der sprichwörtlichen Flasche gefangen halten eine apokalyptische Bedrohung in eine mächtige Orakel verwandeln könnte, die der Menschheit Probleme löst, sagte Roman Yampolskiy, Informatiker an der University of Louisville in Kentucky. Aber erfolgreiche Eindämmung erfordert eine sorgfältige Planung, sodass eine clevere Ki nicht einfach zu bedrohen, zu bestechen, verführen oder hack seinen Weg in die Freiheit.
"Es kann entdecken Sie neue Wege in Angriff, anspruchsvolle Social-Engineering-Angriffe zu starten und Wiederverwendung vorhandener Hardware-Komponenten auf unvorhergesehene Weise", sagte Yampolskiy. "Solche Software beschränkt sich nicht auf infizieren Computer und Netzwerke – es kann auch menschliche Psyche angreifen, zu bestechen, erpressen und einer Gehirnwäsche zu unterziehen, die mit ihm in Berührung kommen."
Ein neues Feld der Forschung, die darauf abzielen, die AI-Gefängnis Problemlösung positive Nebeneffekte für die Verbesserung der Cyber-Sicherheit und Kryptographie haben konnte, schlug Yampolskiy. Sein Vorschlag war in der März-Ausgabe des Journal of Consciousness Studies detailliert.
Gewusst wie: Skynet trap
Eine Start-Lösung könnte AI in einer "virtuellen Maschine" läuft in typischen Betriebssystem eines Computers trap – eines bestehenden Prozesses, die Sicherheit wird durch die Begrenzung der AI Zugriff auf den Host-Computer Software und Hardware. Das hält eine intelligente KI von Dingen wie versteckter Morsecode Nachrichtenversand an menschlichen Sympathisanten durch Manipulation der Lüfter des Computers.
Setzen die AI auf einem Computer ohne Internet-Zugang würde auch verhindern jedes Programm "Skynet" aus der Übernahme der Welt Verteidigung Gitter im Stil von "Terminator"-Filmen. Wenn alle Stricke reißen, können Forscher immer die AI "denken" verlangsamen durch Drosselung zurück Computer Verarbeitungsgeschwindigkeiten, regelmäßig schlagen die "Reset"-Taste oder schalten Sie die Stromversorgung des Computers eine AI im Zaum zu halten.
Diese Sicherheitsmaßnahmen behandeln die AI als besonders intelligent und gefährliche Computerviren oder Malware-Programm, aber ohne die Gewissheit, die alle Schritte wirklich funktionieren würde.
"Die Catch-22, bis wir voll superintelligenten AI entwickelt haben wir nicht unsere Ideen vollständig testen, aber um sicher solche AI entwickeln wir Sicherheitsmaßnahmen arbeiten müssen", sagte Yampolskiy InnovationNewsDaily. "Unsere beste Wette ist, Confinement-Maßnahmen gegen Untermenschen KI-Systeme zu nutzen und um sie zu aktualisieren, je nach Bedarf mit Kapazitäten von AI."
Senden Sie niemals ein Mensch, eine Maschine zu schützen
Auch ungezwungenen Gespräch mit einem menschlichen Wächter können eine AI psychologischen Tricks wie anzufreunden oder erpressen. Die AI könnte ein Mensch mit vollkommener Gesundheit, Unsterblichkeit, zu belohnen oder vielleicht sogar zurückbringen tote Familie und Freunde bieten. Alternativ könnte es bedrohen, schreckliche Dinge auf das menschliche tun, sobald es "zwangsläufig" entgeht.
Am sichersten für die Kommunikation erlauben nur die AI reagieren in einer Multiple-Choice-Mode bestimmten Wissenschaft oder Technologie Probleme lösen zu helfen könnte, erklärte Yampolskiy. Das würde nutzen die Kraft des AI als ein super-intelligenten Orakel.
Trotz aller Sicherheitsvorkehrungen denken viele Forscher, dass es unmöglich ist, eine clevere KI für immer eingesperrt zu halten. Einen letzten Versuch von Eliezer Yudkowsky, Research Fellow am Singularity Institute for Artificial Intelligence, vorgeschlagen, dass bloße menschliche Ebene Intelligenz aus einem Szenario mit "AI-Box" entkommen konnte – auch wenn Yampolskiy darauf hingewiesen, dass der Test war nicht in den meisten wissenschaftlichen Weise getan.
Jedoch argumentiert Yampolskiy stark für AI statt übereilter abgefüllt, um unsere neue Maschine Overlords frei zu halten. Aber wenn die KI den Punkt wo es erhebt sich erreicht jenseits menschlicher wissenschaftlichen Verständnis Mächte wie Telepathie, Präkognition (Wissen über die Zukunft) oder Psychokinese bereitstellen, sind alle Wetten aus.
"Wenn solche Software verwaltet, auf ein Niveau deutlich jenseits menschlichen Ebene Intelligenz selbst zu verbessern, die Art des Schadens kann es tun wirklich über unsere Fähigkeit, Vorhersagen oder vollständig zu verstehen", sagte Yampolskiy.
Wurde diese Geschichte von InnovationNewsDaily, eine Schwester Website LiveScience zur Verfügung gestellt. Sie können InnovationNewsDaily Senior Writer Jeremy Hsu folgen auf Twitter @ScienceHsu. Folgen Sie InnovationNewsDaily auf Twitter @News_Innovation, oder auf Facebook.