Sollte Ihr fahrerlose Auto töten Sie um zwei weitere Personen zu retten?
Es gibt einen Zug Beschleunigung nach unten die Gleise in Richtung fünf unschuldige Menschen, die in der Zeit nie durchkommen werden. Sie können sie durch ziehen einen Schalter speichern, aber es werde töten, eine andere Person auf eine andere Spur. Es ist ein Gedankenexperiment, die Menschen für Alter, aber es ist zu einem echten Dilemma geworden, wenn wir programmieren Roboter, den Schalter ziehen oder nicht diskutiert haben.
Popular Science erklärt, wie die klassische hypothetische Frage real wird:
Ein Vorderreifen bläst und Ihren autonomen SUV ausbricht. Aber anstatt rechtdrehend links, in die gegnerische Spur des Verkehrs, steuert das Roboterfahrzeug rechts. Bremsen zu engagieren, das System versucht, sich selbst zu korrigieren, aber es gibt zu viel Schwung. Wie ein Cornball Stunt in einem schlechten Actionfilm werden Sie über die Klippe, im freien Fall.
Ihr Roboter, das, was Sie gutes Geld bezahlt, hat sich entschieden, Sie zu töten.
Vielleicht nicht der Roboter selbst zu entscheiden, Sie zu töten. Vielleicht haben die Programmierer. Oder der Exekutive, die auf die Unternehmenspolitik beschlossen. Oder der Gesetzgeber, die Antwort auf diese Frage ins Gesetz geschrieben hat. Aber jemand, irgendwo berechtigt, einen Roboter zu handeln.
Das ist nicht die einzig mögliche Situation nicht. Wie Patrick Lin in Wired, fragt, wenn vor der Wahl eines der beiden Autos oder Menschen zu treffen, sollten welche Kriterien ein fahrerloses Auto verwenden, um ihr Ziel wählen? Eine ganze Reihe von komplizierten Robo-Ethik-Fragen werden wir müssen schließlich hammer, aber in der Zwischenzeit beginnen wir mit einer in die Zukunft:
Sollte ein fahrerloses Auto werden ermächtigt, um Sie zu töten?
Bild von Olivier Le Queinec/Shutterstock