Roboter-Treiber töten sollten, um das Leben eines Kindes zu retten?
Dieser Artikel erschien ursprünglich in The Conversation. Die Publikation beigetragen Artikel Leben Wissenschaft Experten stimmen: Op-Ed & Einblicke.
Roboter haben bereits die Welt erobert. Es kann nicht scheinen, so dass weil es nicht ist in der Weise Science-Fiction-Autor passiert Isaac Asmiov es in seinem Buch mir I, Robot. Straßen der Stadt sind nicht überfüllt von humanoiden Robotern nur noch herumlaufen, aber Roboter machen schon eine Menge weltlichen Arbeit hinter verschlossenen Türen, die Menschen lieber vermeiden würde.
Ihre Sichtbarkeit wird allerdings rasch ändern. Fahrerlose Autos dürften auf Straßen und bewegt von einem Punkt zum anderen weniger schwerfällig zu machen. Obwohl sie wird nicht durch humanoide Roboter gesteuert werden, wirft die Software, die sie ausführen, werden viele ethische Herausforderungen.
Beispielsweise sollten Sie um das Leben eines anderen bei einem unvermeidlichen Absturz retten Ihr Roboterauto töten?
Lizenz zum töten?
Halte das Gedankenexperiment: Sie Reisen in ein autonomes Auto, das schnelle Annäherung an einen engen Tunnel entlang eine einspurige Bergstraße. Kurz vor dem Eintritt des Tunnels, die, den ein Kind versucht, über die Straße, aber Ausflüge in der Mitte der Fahrspur laufen, blockieren effektiv den Eingang des Tunnels. Das Auto hat nur zwei Optionen: schlagen und töten das Kind, oder in die Wand auf beiden Seiten des Tunnels, so töten Sie ausweichen.
Beide Ergebnisse führt sicherlich zu Schaden, und aus ethischer Sicht gibt es keine "richtige" Antwort auf dieses Dilemma. Das Tunnel-Problem dient als ein guter Gedankenexperiment, eben weil es schwer zu beantworten ist.
Das Tunnel-Problem weist auch auf bevorstehende Design-Herausforderungen, die angegangen werden müssen, es stellt sich folgende Frage: wie sollten wir programmieren autonome Autos in schwierigen ethischen Situationen reagieren? Eine weitere interessante Frage ist jedoch: Wer sollte entscheiden, wie der Wagen in schwierigen ethischen Situationen reagiert?
Diese zweite Frage fordert uns auf, unsere Aufmerksamkeit auf den Benutzer, Designer und Gesetzgeber rund um autonome Autos, und Fragen, wer die legitime moralische Autorität, solche Entscheidungen zu treffen hat. Wir müssen diese Fragen gemeinsam zu überlegen, wenn unser Ziel ist es, legitime Antworten zu produzieren.
Auf den ersten Blick scheint diese zweite Frage – die Frage – seltsam. Sicherlich ist es den Designern Aufgabe, das Auto so oder so reagieren zu programmieren? Ich bin nicht so sicher.
Aus Sicht des Fahrers ist das Tunnel-Problem viel mehr als ein komplexes Design-Problem. Es ist tatsächlich eine End-of-Life-Entscheidung. Der Tunnel problematisch zutiefst moralischer Fragen, die den Fahrer direkt zu implizieren.
Können Designer, wählen Sie den Ausgang des Tunnels-ähnliche Probleme behandelt diese Dilemmas, als ob sie eine "richtige" Antwort haben müssen, die ausgewählt und in allen ähnlichen Situationen angewendet werden können. In Wirklichkeit tun sie nicht. Ist es am besten für das Auto, das Kind immer zu schlagen? Ist es am besten für das Auto immer auf den Fahrer zu Opfern? Wenn wir eine One size fits all Lösung anstreben, kann es nur willkürlich angeboten werden.
Die bessere Lösung ist es, weitere Beispiele für komplexe moralische Entscheidungen zu bekommen einige Traktion auf die Frage suchen.
Fragen der Ethiker
Medizinisches Fachpersonal beschäftigen sich mit End-of-Life Entscheidungen häufig. Laut ärztlichen Ethik in der Regel bis zu den einzelnen bleibt es für wen die Frage direkten moralische Implikationen hat zu entscheiden, welches Ergebnis vorzuziehen ist. Mit der Diagnose Krebs konfrontiert, zum Beispiel, ist es bis zum Patienten zu entscheiden, ob Sie Chemotherapie unterziehen. Ärzte und Krankenschwestern ausgebildet, Patientenautonomie zu respektieren und es im Rahmen des Zumutbaren unterzubringen.
Ein Appell an persönlicher Autonomie ist intuitiv. Warum Stimmen eine lassen jemand anderes auf zutiefst persönliche moralische Fragen, wie End-of-Life Entscheidungen in einer Fahrsituation entscheiden, dass man in der Lage spürt, eigenständig zu entscheiden?
Aus ethischer Sicht, wenn wir zulassen, dass Designer wählen, wie ein Auto auf ein Tunnel Problem reagieren sollen wir riskieren unterwerfen Treiber Bevormundung durch Design: Autos werden nicht Treiber autonomen Präferenzen in diesen zutiefst persönlichen moralische Situationen achten.
Aus diesem Blickwinkel gesehen wird deutlich, dass es gibt bestimmte zutiefst persönlichen moralische Fragen, die mit autonomen Autos entstehen, die von den Fahrern beantwortet werden sollen. Eine kürzlich durchgeführte Umfrage legt nahe, dass, wenn Designer moralischen Autorität, die, den Sie, dass das Risiko übernehmen Ausführen der Herstellung Technologie, die weniger ethisch ist, und wenn nicht, dass sicherlich weniger vertrauenswürdig.
Wie im Gesundheitswesen müssen Designer und Ingenieure die Grenzen ihrer moralischen Autorität zu erkennen und Wege zur Aufnahme Benutzer Autonomie in schwierigen moralischen Situationen. Benutzer müssen einige schwierige Entscheidungen für sich treffen dürfen.
Dies vereinfacht das Design von autonomen Autos. Aber dass Technologie funktioniert auch verlangt, dass wir neben technischen Aspekten im Design, um es sowohl als vertrauenswürdig und ethisch klingen. Wir sollten in Richtung ermöglicht Benutzern, ihre Autonomie gegebenenfalls walten-Technologie arbeiten. Wenn Roboter-Autos töten müssen, gibt es gute Gründe, warum die Designer nicht diejenigen sein sollten, Kommissionierung Opfer.
Eine längere Version dieses Artikels erschien ursprünglich in Robohub.org. Jason Millar erhielt Fördermittel aus den Sozial- und Humanities Research Council (SSHRC) und der kanadischen Institute für Gesundheit Forschung (CIHR), die Teile dieser Forschung unterstützt.
Dieser Artikel erschien ursprünglich auf das Gespräch. Lesen Sie die