Killer-Roboter: Natürliche Evolution oder Greuel?
Bitte ein Technologe und er oder sie könnte sagen, dass tödliche autonomen Waffen – Maschinen, wählen Sie und zerstöre Ziele ohne menschliches Eingreifen können – sind der nächste Schritt in der modernen Kriegsführung, eine natürliche Entwicklung über den Tag hinaus aus der Ferne bedient Drohnen und unbemannte Bodenfahrzeuge. Andere werden solche Systeme als ein Greuel und eine Bedrohung für die International Humanitarian Law (IHL) oder das Law of Armed Conflict anzuprangern.
Der UN-Menschenrechtsrat hat, jetzt, nach einem Moratorium für die Entwicklung der killer Roboter gefordert. Aber Aktivistengruppen wie das Internationale Komitee für Robot Arms Control (ICRAC) dieser Klasse der Waffe vollständig verboten sehen wollen. Die Frage ist, ob es zu früh ist – oder zu spät – für ein Verbot der Decke. In der Tat sind je nachdem, wie definiert man "Autonomie", solche Systeme bereits im Einsatz.
Aus Steinen, Pfeile, um ballistische Raketen der Mensch immer versucht haben, ihre direkte Beteiligung im Kampf zu beschneiden, sagte Ronald Arkin, Informatiker am Georgia Institute of Technology. Militärische Roboter sind nur mehr vom gleichen. Mit autonomer Systeme Menschen nicht mehr die Ausrichtung, aber sie noch programmieren, zu aktivieren und diese Waffen einzusetzen. [7 Technologien, die Kriegsführung verwandelt]
"Es werden immer ein Mensch in der Kill-Kette mit diesen tödlichen autonomen Systemen, es sei denn du machst den Fall, dass sie losgehen und Krieg wie die Zylonen erklären können", sagte Arkin, unter Bezugnahme auf die verfeindeten Cyborgs aus "Battlestar Galactica". Er fügte hinzu: "Ich genieße Science Fiction, so viel wie die nächste Person, aber ich glaube nicht, dass das ist, was diese Debatte über die zu diesem Zeitpunkt sein sollte."
Peter Asaro, ist jedoch nicht mit diesem Domino-Theorie der Agentur beeindruckt. Ein Philosoph der Wissenschaft an der New School in New York und Mitbegründer von ICRAC, macht Asaro Roboter "sinnvollen menschliche Kontrolle" in ihrem Gebrauch von tödlicher Gewalt fehlt. Als solche würde killer Roboter die Rolle der moralischen Akteure eine Stellung nehmen, die er, dass sie in der Lage bezweifelt, nach dem humanitären Völkerrecht zu erfüllen sind. Deshalb, sagt er, diese Systeme müssen verboten werden.
Wählen Ziele, ranking-Werte
Laut Gesetz von bewaffneten Konflikten hat ein Kämpfer die Pflicht, Opfer unter der Zivilbevölkerung auf ein Minimum zu reduzieren. Dies bedeutet, mit Waffen auf diskriminierende Weise und dafür sorgen, dass, wenn Zivilisten in Aktion getötet werden, ihren zufälligen Tod durch die Bedeutung des militärischen Ziels überwiegen – eine Berechnung, die Werturteile mit sich bringt.
Bei der Beurteilung einer Battlefield-Szene, übertrifft keine Technologie die Fähigkeit des menschlichen Auges und des Gehirns. "Es ist sehr zu denken, dass wir bekommen eine Drohne, die eine bekannte abholen können aus einer Menge einzelner Absichtserklärung. Das wird nicht geschehen für eine lange, lange, lange, lange Zeit,"sagte Mary"Missy"Cummings, Direktor des MITS Mensch und Automation-Labor und ein ehemaliger Pilot der f-18. [Drone Wars: Piloten zeigen schwächenden Stress über virtuelle Schlachtfeld]
Dennoch würde ein völlig autonom Flugzeug viel besser als eine Person tun, sagen, Abholung der unverwechselbaren elektronischen Signatur ein Radarsignal oder niedrigen Grollen eines Panzers. In der Tat Piloten machen die meisten ihrer targeting Fehler, wenn sie versuchen, es zu tun durch Anblick, Cummings gesagt Leben Wissenschaft.
Wie ein Roboter der Entscheidung, wann ein Ziel zu schlagen, glaubt Arkin, dass menschliche ethische Urteile zu einem Waffen-System programmiert werden können. In der Tat, arbeitete er auf einem Prototyp-Software-Programm namens ethischer Gouverneur, die verspricht, als eine interne Beschränkung auf Computeraktionen dienen, das humanitäre Völkerrecht verletzen würde. "Es ist irgendwie wie ein Hund einen Maulkorb anziehen," sagte er.
Wie erwartet, einige viel Skepsis bezüglich der ethischen Gouverneur geäußert haben, und Arkin selbst unterstützt "Einnahme eine Pause", auf den Aufbau von autonomen tödlicher Waffen. Aber er kein Großhandel Forschungsverbot zustimmen, "bis jemand irgendeine grundlegende Beschränkung, die meiner Meinung nach nicht vorhanden ist, sind die Ziele, die Forscher wie ich festgestellt habe unerreichbar zeigen kann."
Von Robotern und Menschen
Unter Berufung auf die grausige Geschichte von Kriegsverbrechen, argumentieren Befürworter der automatisierten Tötungsmaschinen, dass in Zukunft diese kühl und berechnend Systeme möglicherweise tatsächlich humaner als menschliche Soldaten. Ein Roboter, zum Beispiel wird nicht Pistole ein Zivilist aus Stress, Ärger oder Rassenhass, noch wird er erliegen Blutrausch oder Rache und gehen auf einem Amoklauf in einem Dorf.
"Wenn wir können [entwickeln Maschinen, die können] menschliche Warfighters in Bezug auf ethische Leistung... zu übertreffen, dann wir potentiell zivilen Leben retten könnte" Arkin erzählte Leben Wissenschaft, "und mir, das ist nicht nur wichtig, das ist ein moralischer Imperativ." [Kampf, Kampf, Kampf: die Geschichte der menschlichen Aggression]
Dieses Argument ist nicht ohne seine Logik, aber es kann nur so weit gedehnt werden, sagte Jessica Wolfendale, West Virginia University Associate Professor für Philosophie, spezialisiert auf die Untersuchung von Kriegsverbrechen. Und zwar deshalb, weil nicht jeder Gräueltat in der Hitze des Gefechts, wie im Fall von US-Marines töten 24 irakische Zivilisten in Haditha, im Jahr 2005 passiert.
Manchmal Kriegsverbrechen durch eine bestimmte Richtlinie "Beauftragten der Befehlskette" entstehen, sagte Wolfendale. In einem solchen Fall – denken Sie an die Folter, Vergewaltigung und Misshandlung von Gefangenen in Abu Ghraib 2003 / 2004 – die Täter sind folgende Aufträge, nicht zu verletzen. Also sagte es ist schwer zu erkennen, wie Roboter anders als Menschen funktionieren würde, sie.
Asaro hat auch seine Zweifel, die man empirisch nachweisen kann, dass tödliche Roboter Leben retten würde. Aber selbst wenn das der Fall wäre, er besteht darauf, so dass "Computer und Algorithmen und mechanische Prozesse" ein Mensch zu Leben ist "grundsätzlich unmoralisch."
Diese Haltung sagte und emotional ansprechend, nicht ohne seine konzeptionelle Schwierigkeiten, Paul Scharre, Projektleiter für die 20JJ Kriegsführung Initiative, am Zentrum für eine neue amerikanische Sicherheit in Washington, D.C.
Autonome Waffen, in gewisser Hinsicht bereits vorhanden sind, sagte Scharre. Minen sprengen, u-Boote und Panzer (und den Menschen im Inneren) ohne dass jemand den Auslöser. Die Harpyie-Drohne, entwickelt von Israel Aerospace Industries, jagt und Feuerkontrolle Radare ganz von selbst beseitigt. Und auch der Patriot Luft und Rakete Abwehrsystem, von den Vereinigten Staaten und mehreren anderen Staaten verwendet in den Automatikbetrieb geschaltet werden kann und gegen Flugzeuge eingesetzt werden.
Ist Auto-Krieg unvermeidlich?
Peter W. Singer, Direktor des Center for 21st Century Sicherheit und Intelligenz an der Brookings Institution, eine Non-Profit Think Tank mit Sitz in Washington, D.C., bezweifelt, dass vorgeschlagene Verbot des ICRAC gelingen wird, weil es "gegen die Trends der Wissenschaft, des Kapitalismus und Krieg zu kämpfen."
Ein weiterer wichtiger Knackpunkt ist die Durchsetzung. Autonomie ist nicht wie eine chemische Waffe oder blendenden Laser; Es ist eine Software, die in eine ansonsten Normal aussehende Drohne begraben. Darüber hinaus hat die Technologie der gewaltlosen zivilen Anwendungen. Der National Science Foundation unterstützt zum Beispiel bemühen, der ethische Gouverneur als ein Werkzeug, um Beziehungen zwischen Parkinson Patienten und deren Betreuer vermitteln zu entwickeln.
Unterstützer des Verbots zu gewähren, es wird nicht leicht sein, zu erlassen, aber sie, solche Herausforderungen sollte keinen Grund sagen, das Verbot beiseite zu legen. "Menschen bauen auch chemische und biologische Waffen; 100 % Übereinstimmung zu den Regeln, aber wenn es, Menschen zu verletzen, die Ursache für Sanktionen ist bekommt man nicht", sagte Asaro.
Anmerkung der Redaktion: Diese Geschichte wurde aktualisiert am 17:37 Ost, korrigieren Sie die Schreibweise des Nachnamens des Peter Asaro.
Folgen Sie uns @livescience , Facebook & Google + .