Kontrolle zu verlieren: Die Gefahren der Killer-Roboter (Op-Ed)
Neuer Technologie könnte Menschen, die Kontrolle über Entscheidungen mit tödlicher Gewalt abzugeben. Als künstliche Intelligenz Fortschritte, rückt die Möglichkeit, die Maschinen konnten unabhängig voneinander auswählen und auf Ziele feuern. Völlig autonome Waffen, auch bekannt als "killer Roboter" sind schnell aus dem Reich der Science-Fiction zur Realität.
Diese Waffen, die auf dem Land, in der Luft oder auf dem Meer operieren könnte drohen zu bewaffneten Konflikt und Strafverfolgung in alarmierender Weise revolutionieren. Befürworter sagen, dass diese killer-Roboter sind notwendig, da moderne Kampf so schnell bewegt, und Roboter machen die Kämpfe mit Soldaten und Polizisten aus der Gefahrenzone halten würde. Aber die Drohungen gegen die Menschheit würde jede militärische überwiegen oder law Enforcement Vorteile.
Entfernen von Menschen aus der targeting Entscheidung würde eine gefährliche Welt schaffen. Maschinen würden Leben und Tod Bestimmungen außerhalb menschlicher Kontrolle machen. Die Gefahr eines unverhältnismäßigen Schadens oder fehlerhafte gegen Zivilisten erhöhen würde. Kein Mensch kann haftbar gemacht werden.
Angesichts der Moral, rechts- und Rechenschaftspflicht Risiken völlig autonom Waffen, preempting ihrer Entwicklung können nicht warten, Herstellung und Verwendung. Der beste Weg, um dieser Bedrohung zu behandeln ist eine internationale, rechtlich verbindlichen Verbot von Waffen, die sinnvollen menschliche Kontrolle fehlt.
Konservierende Empathie und Urteil
Mindestens 20 Ländern haben an UN-treffen die Überzeugung zum Ausdruck gebracht, dass Menschen die Auswahl und das Engagement der Ziele diktieren sollte. Viele von ihnen haben hallte Argumente in einem neuen Bericht, von dem ich der Erstautor wurde angelegt. Der Bericht erschien im April von Human Rights Watch und Harvard Law School International Human Rights Klinik zwei Organisationen, die für ein Verbot völlig autonom Waffen gekämpft haben.
Menschliche Kontrolle über Waffen behalten, ist ein moralischer Imperativ. Weil sie Empathie besitzen, können empfinden das emotionale Gewicht von einer anderen Person zu schädigen. Die Achtung der Menschenwürde kann – und sollte – als einen Scheck über Tötung dienen.
Roboter, fehlt hingegen echte Emotionen, auch Mitgefühl. Darüber hinaus konnte unbelebte Maschinen nicht wirklich den Wert jedes menschlichen Lebens verstehen, wählten sie zu nehmen. Ermöglicht ihnen zu bestimmen, wann, Gewalt anzuwenden, würde die Menschenwürde beeinträchtigen.
Menschlicher Kontrolle fördert auch die Einhaltung des Völkerrechts, die entworfen, um Zivilisten und Soldaten gleichermaßen zu schützen. Zum Beispiel verbieten die Gesetze des Krieges unverhältnismäßige Angriffe in denen erwarteten zivilen Schaden erwarteten militärischen Vorteil überwiegt. Menschen können ihr Urteil, basierend auf Erfahrungen der Vergangenheit und moralischen Erwägungen gelten und Entscheidungen von Fall zu Fall über die Verhältnismäßigkeit.
Wäre es fast unmöglich, aber dieses Urteil völlig autonom Waffen zu replizieren, und sie können nicht vorprogrammiert werden, um alle Szenarien zu behandeln. Infolgedessen wäre diese Waffen als "angemessene Kommandanten," die traditionellen rechtlichen Standard für den Umgang mit komplexer und unvorhersehbarer Situationen handlungsunfähig.
Darüber hinaus würde der Verlust der menschlichen Kontrolle des Ziels nicht zu willkürlich des Lebens beraubt werden bedrohen. Aufrechterhaltung dieses grundlegende Menschenrecht ist Pflicht bei Strafverfolgungsbehörden sowie militärische Operationen. Urteil fordert sind erforderlich, um die Notwendigkeit eines Angriffs zu prüfen, und Menschen sind besser positioniert als Maschinen zu machen.
Förderung der Rechenschaftspflicht
Ein Mensch bei Entscheidungen zur Anwendung von Gewalt weiter auf dem Laufenden zu halten wird sichergestellt, dass die Verantwortlichkeit für rechtswidrige Handlungen möglich ist. Unter internationalen Strafrecht würde ein menschlicher Operator in den meisten Fällen Flucht Haftung für die Schäden durch eine Waffe, die unabhängig gehandelt. Es sei denn, er oder sie absichtlich eine völlig autonome Waffe verwendet, um ein Verbrechen zu begehen, wäre es unfair und rechtlich problematisch, den Betreiber für die Aktionen eines Roboters verantwortlich, die der Betreiber weder verhindern noch bestrafen könnte.
Es gibt zusätzliche Hindernisse für Programmierer und Hersteller von völlig autonom Waffen haftet zivilrechtlich, in denen ein Opfer eine Klage gegen eine angebliche Übeltäter Dateien finden. Die Vereinigten Staaten, stellt beispielsweise Immunität für die meisten Waffenhersteller. Es hat auch hohe Standards für den Nachweis, dass ein Produkt in einer Weise defekt war, das einen Hersteller rechtlich verantwortlich machen würde. In jedem Fall würde Opfer aus anderen Ländern wahrscheinlich den Zugang und Geld, um ein ausländisches Unternehmen verklagen fehlen. Die Lücke in der Verantwortlichkeit würde Abschreckung von rechtswidrigen Handlungen zu schwächen und lassen Opfer unzufrieden, dass jemand für ihr Leid bestraft wurde.
Eine Gelegenheit ergreifen
Bei einem UN-Treffen in Genf im April empfohlen 94 Ländern ab formelle Gespräche über "tödliche Autonome Waffensysteme." Die Gespräche würden prüfen, ob diese Systeme nach dem Übereinkommen über konventionelle Waffen, ein Abrüstungsabkommen, die reguliert oder verboten verschiedene andere Arten von Waffen, einschließlich Brandwaffen und blendenden Laser beschränkt werden soll. Die Nationen, die den Vertrag beigetreten sind Treffen im Dezember für eine Konferenz zur Überprüfung ihrer Agenda für die künftige Arbeit festlegen. Es ist wichtig, dass die Mitglieder verpflichten sich, einen formalen Prozess auf tödliche Autonome Waffensysteme im Jahr 2017 starten.
Abrüstung Gesetz sieht Präzedenzfall für die Forderung nach menschlichen Kontrolle über Waffen. Beispielsweise nahm die internationale Gemeinschaft weithin akzeptierten Verträge verbieten biologische Waffen, chemische Waffen und Landminen im großen Teil wegen Unfähigkeit der Menschen angemessene Kontrolle über ihre Wirkungen ausüben. Ländern sollte nun völlig autonome Waffen verbieten, die eine gleiche oder größere humanitäre Risiko darstellen würde.
Auf der Überprüfungskonferenz Dezember sollte die Konvention über konventionelle Waffen beigetretenen Länder konkrete Maßnahmen auf dieses Ziel hin einleiten. Sie sollten Verhandlungen über ein neues internationales Abkommen an völlig autonom Waffen, jenseits allgemeine Besorgnis zum Ausdruck, konkrete Maßnahmen einzuleiten. Sie sollten genügend Zeit im Jahr 2017 – mindestens mehrere Wochen – für inhaltliche Überlegungen beiseite.
Während des Erstellens des Völkerrechts notorisch langsam ist, können Länder rasch zu den Bedrohungen des völlig autonom Waffen begegnen. Sie sollten die Gelegenheit nutzen die Überprüfungskonferenz weil die Alternative nicht akzeptabel ist: Diplomatie zu übertreffen-Technologie ermöglicht schlimme und unvergleichliche humanitäre Folgen produzieren würde.
Bonnie Docherty, Dozent für Recht, Senior klinischer Ausbilder in Harvard Law School International Human Rights Clinic, Harvard University
Dieser Artikel erschien ursprünglich auf das Gespräch. Lesen Sie die