Was bedeutet das erste fahrerlose Auto Todesopfer für selbstfahrende Tech
Ein Absturz, der Fahrer in ein Elektroauto Tesla Model S in selbstfahrenden Modus getötet hat die Sicherheit der fahrerlosen Fahrzeugtechnik in Frage gestellt. In dieser Woche kündigte Bundesbeamten die Einführung eines förmlichen Prüfverfahrens in den Unfall verwickelt.
Des Absturzes am 7. Mai in Williston, Florida, wenn ein Sattelzug aus einer Linkskurve vor der Tesla und Wagen konnte keines der Bremsen, berichtet die New York Times. Es ist die erste bekannte tödlichen Unfall mit einem selbstfahrenden Fahrzeug.
In einer Erklärung von Tesla, der im Blog des Unternehmens Donnerstag (30. Juni) gebucht wurde, stellte die Autohersteller fest, dass das Verhängnis war der erste "in etwas mehr als 130 Millionen Meilen in der Autopilot aktiviert wurde." [Fotos: die Roboter-Entwicklung von selbstfahrenden Autos]
"Es ist wichtig zu beachten, dass Tesla Autopilot standardmäßig deaktiviert und erfordert die explizite Bestätigung, dass das System ist eine neue Technologie und noch in einer öffentlichen Beta-Phase davor aktiviert werden kann," schrieb Tesla Beamten.
Das Model S ist kein selbstfahrendes Auto, aber Teslas Autopilot-Funktion ist eine assistive Technologie und ein erster Schritt in wirklich fahrerlose Autos auf den Markt bringen. Mittels Computer-Software, Sensoren, Kameras und Radar kann das Auto-Autopilot-Funktion führen Sie Aufgaben wie auf einer Autobahn, zusammenführen Atlantik berichtet. Fahrer sind angewiesen, um ihre Hände auf dem Rad im Autopilot-Modus.
Tesla hat nicht angegeben, in ihrem Statement wie engagiert der Fahrer zum Zeitpunkt des Absturzes war, aber habe zur Kenntnis, dass: "weder Autopilot noch der Fahrer bemerkt die weiße Seite der Sattelzug gegen einen hellen Himmel, so dass die Bremse nicht betätigt wurde."
Andere Unternehmen wie General Motors und Google, haben bei der Entwicklung von fahrerlosen Auto-Technologie investiert. Im Februar des Googles selbstfahrende Autos stürzte in einen Bus aber es gab keine gemeldeten Verletzungen.
Wie Tests auf autonome Fahrzeuge weiter, ist die Frage, ob die Technologie bis zu dem Punkt fortgeschritten ist, dass die Regierung Autos genehmigen würde, die selbst fahren können.
In der Tat fand eine Studie, veröffentlicht im Oktober 2015, dass selbstfahrende Autos sind eher bei einem Unfall sein. Die Studie, durchgeführt von der University of Michigan Transportation Research Institute, festgestellt, dass pro million Meilen reisten, selbstfahrender Autos hatten Absturz höher als herkömmliche Autos. Zum Zeitpunkt der Studie hatte keine selbstfahrende Autos Verschulden für die Abstürze gefunden worden waren sie beteiligt.
Es ist auch ein moralisches Dilemma im Spiel, wie eine führerlose Fahrzeug haben kann, zu entscheiden, welche lebt bei einem schweren Unfall zu retten. Eine aktuelle Studie veröffentlicht in der Zeitschrift Science festgestellt, dass Menschen von autonomen Fahrzeugen (AV) unterliegt utilitaristischen Ethik genehmigen – die Gesamtzahl der Todesfälle bei einem Sturz zu minimieren, auch wenn Menschen im Fahrzeug geschädigt wurden. Jedoch berichtet die meisten Befragten nicht in diese Fahrzeuge selbst fahren wollen, Leben-Wissenschaft.
"Das moralische Dilemma für AV-etwas, das ganz neu ist", sagte Co-Studienautor Jean-François Bonnefon, Forschungsdirektor am Toulouse School of Economics in Frankreich. "Wir reden über das besitzen eines Objekts, das Sie mit jedem Tag interagieren, zu wissen, dass dieses Objekt entscheiden könnte, um Sie in bestimmten Situationen zu töten."