Vor dem menschlichen Aussterben Super Intelligenz erklären zwei Futuristen (Op-Ed)
Dieser Artikel erschien ursprünglich in The Conversation. Die Publikation beigetragen Artikel Leben Wissenschaft Experten stimmen: Op-Ed & Einblicke.
Das Gespräch organisiert eine öffentliche Frage-und-Antwort-Sitzung auf Reddit in dem Anders Sandberg und Andrew Snyder-Beattie, Forscher an der Future of Humanity Institute an der Universität Oxford, untersucht, welche existentielle Risiken Menschheit Gesichter und wie wir sie senken könnten. Hier sind die Highlights.
Was Sie tun, denken stellt die größte Bedrohung für die Menschheit?
Sandberg: Naturgefahren sind viel kleiner als Menschen verursachten Risiken. Die typischen Säugetierarten dauert ein paar Millionen Jahren, was bedeutet, dass vom Aussterben bedroht Risiko in der Größenordnung von 1 in 1 Million pro Jahr. Nur ein Blick auf Atomkrieg, wo hatten wir mindestens eine enge Anruf in 69 Jahren gibt (Kubakrise) ein Risiko für viele Male höher. Natürlich, Atomkrieg möglicherweise nicht 100 % Aussterben verursacht, aber auch wenn wir uns, dass es nur 10 % oder 1 % Chance hat einig, es ist immer noch weit über die natürliche Aussterberate.
Atomkrieg ist immer noch die größte direkte Bedrohung, aber ich erwarte Biotechnologie Gefahren für die in naher Zukunft (billige DNA-Synthese, große Datenbanken von Krankheitserregern, zumindest einige verrückten und Misanthropes) zu erhöhen. Weiter entlang der Linie wäre Nanotechnologie (nicht graue Schmiere, aber "intelligente Gifte" und superschnellen Wettrüsten) und künstliche Intelligenz wirklich riskant.
Der Kern des Problems ist eine Menge von Selbstüberschätzung. Wenn Menschen übermütig sind sie dümmer Entscheidungen, ausgleichende Beweise ignorieren und legen Sie Richtlinien, die das Risiko erhöhen. Also in gewisser Weise ist die größte Bedrohung menschlicher Dummheit.
In naher Zukunft tun, was Sie denken, ist das Risiko, dass eine Influenza-Stamm (mit hohen Infektiosität und Letalität) tierischen Ursprungs werden mutieren und beginnen, von Mensch zu Mensch weitergeben (anstatt nur Tier zu Mensch), verursacht eine Pandemie? Wie schnell könnte es zu verbreiten und wie schnell könnten wir Abwehrkräfte gegen ihn einrichten?
Snyder-Beattie: geringe Wahrscheinlichkeit. Einige Modelle, die wir diskutiert haben deuten darauf hin, dass eine Grippe, die ein Drittel der Bevölkerung tötet alle 10.000 Jahre eintreten würde oder so.
Krankheitserregern konfrontiert die gleichen vor-und Nachteile jeder Parasit tut. Wenn die Krankheit eine hohe Letalität hat, tötet es in der Regel seinen Wirt zu schnell um sehr weit verbreitet. Selektionsdruck für Krankheitserreger schafft daher eine inverse Beziehung zwischen Infektiosität und Letalität.
Diese inverse Beziehung ist das Nebenprodukt der Evolution – es gibt kein Gesetz der Physik, die so eine Krankheit verhindert. Deshalb entwickelt, dass Erreger von besonderer Bedeutung sind.
Ist der Klimawandel eine Gefahr für unser Leben oder nur unsere Art zu leben?
Sandberg: der Klimawandel ist unwahrscheinlich, dass die menschliche Spezies auszulöschen, aber es kann sicherlich das Leben schwerer machen für unsere Zivilisation. Also ist es eher eine Bedrohung für unsere Art zu Leben als in unserem Leben. Dennoch ist eine Welt, die unter Druck von landwirtschaftlichen Probleme oder Kämpfe über Geo-Engineering einer Welt eher von anderen Risiken in Schwierigkeiten zu bekommen.
Wie bewerten Sie die Bedrohung durch künstliche intelligente (etwas hervorgehoben in dem jüngst erschienenen Film Transzendenz)?
Sandberg: Wir denken es ist möglicherweise eine sehr unangenehme Risiko, aber es gibt auch eine gute Chance, dass künstliche Intelligenz eine gute Sache ist. Ob wir es schaffen können, so dass es freundlich hängt.
Freundlichen AI ist natürlich nicht die ultimative Lösung. Auch wenn wir beweisen konnte, dass eine bestimmtes AI Design sicher wäre, müssen wir noch jeder zu seiner Umsetzung zu erhalten.
Die existenzielle Gefahr denkst du wir unter- und warum investieren?
Snyder-Beattie: alle von ihnen. Investieren wir unter-im Kampf gegen sie deshalb, weil existenzielle Risiko eine generationenübergreifende öffentliches gut ist. Menschen sind schlecht bei der Rechnungslegung für das wohl zukünftiger Generationen.
In einigen Fällen, z. B. mögliche existentielle Risiken aus der künstlichen Intelligenz ist der Unterinvestition Problem von Menschen gegen die Risiken überhaupt ernst nehmen verstärkt. In anderen Fällen, wie Biotechnologie die Menschen zu verwirren Risiko mit Wahrscheinlichkeit. Extrem unwahrscheinlichen Ereignisse sind noch Wert zu studieren und zu verhindern, einfach weil die Einsätze so hoch sind.
Welche Aussicht schreckt Sie mehr: ein Riddley Wanderer-Typ-Szenario, wo eine ziemlich gesunde menschliche Bevölkerung überlebt, aber unsere höhere Kultur und Technologien sind verloren, und werden wahrscheinlich nie entdeckt werden; oder wo wird die Erde unbewohnbar, aber überlebt eine technologische Bevölkerung mit kulturellen Archiven, jenseits der Erde?
Snyder-Beattie: ohne Zweifel die Riddley Wanderer-Art Szenario. Menschlichen Lebens hat Wert, aber ich bin nicht davon überzeugt, dass der Wert über die Lebens-Stellung auf einem bestimmten Planeten abhängt.
Menschen, die auf die Erde beschränkt werden in kosmischen Begriffen relativ schnell Aussterben. Erfolgreiche Besiedlung konnte viele tausend Billionen von glücklichen Menschen unterstützen, die ich behaupten würde, die bloße Milliarden auf der Erde Leben überwiegt.
Was vermuten Sie, wird passieren, wenn wir auf die Bühne bekommen wo wird Biotechnologie mehr augmentative als therapeutischen Charakter?
Sandberg: Es ist ein klassisches Argument unter Bioethiker darüber, ob es eine gute Sache ist "akzeptieren die gegebenen" oder versuchen, Dinge zu ändern. Es gibt Fälle, wo es psychologisch und praktisch gut ist, wer man ist oder eine nicht sehr schöne Situation akzeptieren und weitermachen... und andere Fälle, wo es ein Fehler ist. Immerhin Krankheit und Unwissenheit sind natürliche aber selten als etwas, was wir einfach akzeptieren sollten – aber wir müssen lernen zu akzeptieren, dass es Dinge Medizin und Wissenschaft nicht beheben. Zu wissen, der Unterschied ist natürlich das Hauptproblem, und Menschen könnten berechtigterweise nicht einverstanden.
Augmentation, die wirklich große kulturelle Grenzen hinweg führen könnte ist Brustvergrößerung, die beeinflusst, wie wir kommunizieren. Macht die Menschen klüger, länger leben Sie oder sehen Sie, dass UV-Licht hat keinen Einfluss auf, die sie mit viel, aber etwas, die ihnen ermöglicht interagieren, mit neuen Gemeinschaften zu interagieren.
Der Übergang zwischen Mensch und Transhumanismus wird in der Regel nahtlos, aussehen, weil die meisten Menschen wollen schauen und "normal" funktionieren. Mit Ausnahme von Verbesserungen, die dazu bestimmt sind, zu zeigen, werden die meisten so zurückhaltend. Das bedeutet nicht, sie verändern nicht die Dinge radikal auf der ganzen Linie, aber die meisten neue Technologien verbreitet viel reibungsloser, als wir neigen dazu zu denken. Wir bemerken nur diejenigen, die pop-up schnell oder ärgern uns.
Was gibt Ihnen die meisten Hoffnung für die Menschheit?
Sandberg: der gesamte Reichtum der Menschheit (gemessen in geeigneten Einheiten; viele schwierige wirtschaftliche Archäologie hier) gestiegen exponentiell in den letzten ~ 3000 Jahren - trotz dem Fall des römischen Reiches, der Pest und des zweiten Weltkriegs. Nur, weil wir auch Durcheinander zu bringen, bedeutet nicht, dass wir wirklich knifflig und Böse wieder Problemlösefähigkeit fehlt.
Snyder-Beattie: Phantasie. Wir sind in der Lage, Symbole und Sprache zu erstellen und vorstellen, Dinge, die unsere Vorfahren nie geträumt haben, möglich wäre.
Anders Sandberg arbeitet für die Zukunft der Menschheit Institute an der University of Oxford.
Andrew Snyder-Beattie arbeitet für die Zukunft der Menschheit Institute an der University of Oxford.
Dieser Artikel erschien ursprünglich auf das Gespräch. Lesen Sie die