Daher begrüßen wir sollten "Killer-Roboter" – nicht zu verbieten

Der offene Brief, unterzeichnet von mehr als 12.000 prominente Menschen fordern ein Verbot von künstlich intelligente killer Roboter, Argumente für ein UN-Verbot auf dem gleichen verbunden ist fehlgeleitet und vielleicht sogar rücksichtslos.
Moment mal, falsch? Rücksichtslos? Lassen Sie mich einige Rahmen bieten. Ich bin ein Robotik-Forscher und haben verbrachte einen Großteil meiner Karriere lesen und schreiben über militärische Roboter, schüren die sehr Kampagne, die ich jetzt vehement ablehne.
Ich war sogar eines der Hunderte von Menschen, die in den frühen Tagen der Debatte ihre Unterstützung für das Internationale Komitee für Robot Arms Control (ICRAC) und die Kampagne zu stoppen Killer-Roboter gab.
Aber ich habe meine Meinung geändert.
Warum die radikale Meinung nach ändern? Kurz gesagt, kam ich zu folgenden realisieren.
Die menschliche Verbindung
Die Unterzeichner sind nur Panikmacher, die autonomen Waffen, dass "auswählen und sich Ziele ohne menschliches Zutun," verbieten wollen die sagen, sie werden kommen, um ein Schlachtfeld in Ihrer Nähe innerhalb von "Jahren, nicht Jahrzehnte".
Aber wenn Sie kritisch darüber nachdenken, keine Roboter kann wirklich töten ohne menschliches Zutun. Roboter sind ja, wahrscheinlich schon in der Lage, Menschen töten mit ausgeklügelten Mechanismen, ähneln die verwendet von den Menschen, was bedeutet, dass Menschen keine tödliche System zu überwachen unbedingt, während es in Betrieb ist. Aber das bedeutet nicht, daß es kein Mensch in der Schleife.
Wir modellieren kann das Gehirn, menschlichen Lernens und Entscheidungsfindung bis zu dem Punkt, dass diese Systeme in der Lage, kreative Lösungen scheinen für das Töten von Menschen zu erzeugen, aber die Menschen sehr viel in diesen Prozess einbezogen sind.
In der Tat, es wäre absurd zu übersehen, die Rolle der Programmierer, kognitive Wissenschaftler, Ingenieure und andere am Bau dieser autonomen Systeme beteiligt. Und auch wenn wir, was der Kommandant wussten militärischer Gewalt und Regierung, die entschieden, das System zu nutzen? Sollten wir ihnen zu übersehen?
Wir haben bereits automatische Tötungsmaschinen
Wir haben schon Waffen der Art, für die ein Verbot beantragt wird.
Die australische Marine hat beispielsweise hochautomatisierte Waffen in Form von Nähe-in Waffensysteme (CIWS) seit vielen Jahren erfolgreich eingesetzt. Diese Systeme sind im wesentlichen Waffen, mit denen können Tausende von Schuss Munition pro Minute, autonom über ein computergesteuertes System oder unter manueller Kontrolle, sind so gestaltet, daß Überwasserschiffe eine letzte Verteidigung gegen Anti-Schiff-Raketen.
Bei autonom Funktionen CIWSs normalerweise von anderen Systemen und Personen, einschließlich Suche, Erkennung, Beurteilung der Bedrohungslage, Akquisition, targeting und Ziel Zerstörung durchgeführt.
Dieses System würde fallen unter die Definition in dem offenen Brief würden wir, die Unterzeichner Logik zu folgen. Aber hört man nicht von jedermann Einspruch gegen diese Systeme. Warum? In einem feindlichen Mode, in der Regel absteigend in Richtung des Schiffes in rasanter Geschwindigkeit nähert sich weil sie weit draußen auf dem Meer und nur in Fällen wo ein Objekt beschäftigt sind.
Das heißt, sie sind nur in Umgebungen und Kontexten, wobei das Risiko der Tötung eines unschuldigen Zivilisten praktisch Null, viel ist, beschäftigte weniger als in regelmäßigen zu bekämpfen.
Also konzentrieren kann nicht warum wir uns auf bestehende Gesetze, die vorschreiben, dass sie in den besonderen und engen Umständen eingesetzt werden?
Die echte Angst ist nicht Existent denken Roboter
Es scheint, dass die echte Sorge, die motiviert viele von 12,000-plus Individuen, die killer-Roboter-Petition zu unterzeichnen hat nicht über Maschinen, wählen Sie und Ziele ohne menschliches Eingreifen, sondern eher die Entwicklung der fühlende Roboter zu engagieren.
Die Fortschritte in der Technologie im vergangenen Jahrhundert gegeben, ist es verlockend, denken Roboter zu befürchten. Wir haben Sprung von den ersten Motorflug in Raumfahrt in weniger als 70 Jahren, also warum kann nicht schaffen wir eine wirklich intelligente Roboter (oder nur eine, die zu autonomen, ein Mensch zu halten, verantwortlich aber nicht autonom genug, den Roboter selbst verantwortlich ist) wenn wir ein bisschen mehr Zeit haben?
Es gibt eine Reihe guter Gründe, warum dies nie geschehen wird. Eine Erklärung könnte sein, dass wir eine Seele haben, die von einer Maschine einfach nicht repliziert werden können. Während dies der Liebling der spirituellen Typen tendenziell, gibt es andere natürliche Erklärungen. Zum Beispiel gibt es ein logisches Argument zu vermuten, dass bestimmte Vorgänge im Gehirn nicht numerische oder algorithmischen in der Natur und somit unmöglich, wirklich zu replizieren.
Wenn Menschen verstehen, dass jedes System wir begreifen können, heute – unabhängig davon, ob es in der Lage, Lern- oder hochkomplexen Vorgang – ist das Produkt der Programmierung und Programme der künstlichen Intelligenz, die der Programmierer und Systementwickler zurückverfolgen, und, dass wir nie echte denken Roboter haben, sollte es klar geworden, dass das Argument für ein vollständiges Verbot von killer-Roboter auf unsicherem Boden ruht.
Wer nach den Regeln spielt?
UN-Verbote sind auch praktisch nutzlos. Fragen Sie jeden, der ein Bein vor kurzem verlegten Antipersonen mir verloren hat. Die traurige Tatsache der Angelegenheit ist, dass die "bösen Jungs" nicht an die Spielregeln halten.
Jetzt, dass Sie verstehen, warum ich meine Meinung geändert, lade ich die Unterzeichner auf die killer-Roboter-Petition beachten diese Punkte, ihre Position zu überdenken und begleiten mich auf die "dunkle Seite" in plädiert für eine effektive und praktische Regelung der was wirklich nur hoch automatisierte Systeme sind.
Jai Galliott ist Research Fellow im Indo-Pazifik Verteidigung an der UNSW Australia.
Dieser Artikel erschien ursprünglich auf das Gespräch. Lesen Sie den original Artikel.