Statistisch gesehen sind selbstfahrende Autos dabei, jemanden zu töten. Was passiert als nächstes?
Als autonome Fahrzeuge um mehr und mehr Meilen auf unseren Straßen zu sammeln, sind die Chancen eines tödlichen Unfalls von Tag zu Tag verkürzt. Wie reagieren wir?
100 Millionen. Das ist die Anzahl der Meilen, im Durchschnitt nimmt, daß es einen menschliche Fahrer, jemanden in den Vereinigten Staaten zu töten. Es ist auch die Anzahl der Meilen, die Teslas halbautonomen "Autopilot" Feature bis zum Mai dieses Jahres zerbrach hatte. Vorausgesetzt, Autopilot ist auf Teslas Massenmarkt Modell 3 im Jahr 2017, ausgerollt, die Zahl rasch in die Milliarden steigen. Mercedes sind ähnliche Systeme in ihre neue E-Klasse bereitstellen, während Googles vollständig fahrerlose Autos haben eine weitere 1,6 Millionen Meilen und zählen zerbrach.
Wie die Meilen wachsen, schrumpfen die Quoten. An einem gewissen Punkt verursacht ein Auto fährt autonom oder semi-autonom einen tödlichen Unfall. Wenn ihre Leistung aus der Ferne des Menschen vergleichbar ist, könnte diesem Moment innerhalb der nächsten 18-24 Monate kommen. Wenn ja, wird es durch das Gesetz des Durchschnitts wahrscheinlich ein Tesla Model 3 beinhalten. Selbstfahrende Autos möglicherweise ihre Driscoll Moment haben.
Im Jahre 1896 besuchte Bridget Driscoll ein Sommerfest im Crystal Palace, London, als ein Pkw bei "rasant" – irgendwo unter seine Höchstgeschwindigkeit von acht Meilen pro Stunde – schlug und sie tötete. Sie wurde Großbritanniens erste Automobil Todesopfer. (Es dauerte weitere drei Jahre für die Vereinigten Staaten aufzuholen, wenn eine unglückliche Rentner nach unten von einem pferdelosen Taxi in New York gemäht wurde.)
Es gab keine große Reaktion. Das Parlament hatte nur verabschiedete ein Gesetz, die Erhöhung der Höchstgeschwindigkeit auf 14 Meilen pro Stunde, und hob ihn wieder auf eine schwindelerregende 20 Meilen pro Stunde im Jahr 1903. Im Jahr 1930, trotz einer laufen in die Tausende Todesopfer pro Jahr wurden Grenzen vollständig entfernt. Herrn Buckmaster erklärt die Argumentation im House Of Lords zwei Jahre später:
"Es reicht zu sagen, dass der Grund, warum das Tempolimit abgeschafft wurde, nicht bestand darin, dass jemand die Abschaffung würde dazu neigen, die größere Sicherheit der Fußgänger, aber, dass die bestehende Geschwindigkeitsbegrenzung so allgemein Ungehorsam war, dass die Wartung des Gesetzes in Verachtung gebracht."
Werden moderne Gesetzgeber und Aufsichtsbehörden so entspannt sein? Die Unfälle beginnen. Am Valentinstag schlagen Google einen wichtigen Meilenstein in der Entwicklung ihrer fahrerlose Autos - der erste Unfall:
"Am 14. Februar, unser Fahrzeug fuhr autonom und in den rechten Straßenrand vorzubereiten für rechts abbiegen Richtung gezogen hatte. Dann entdeckt es Sandsäcke in der Nähe ein Gully seinen Weg versperren, so dass es zum Stillstand kommen musste. Nach einer Wartezeit von einigen anderen Fahrzeugen passieren, begann unser Fahrzeug noch im autonomen Modus Angeln zurück in Richtung der Mitte der Fahrspur bei rund 2 km/h-- und nahm Kontakt mit der Seite von einem vorbeifahrenden Bus Reisen bei 15 km/h. Unser Auto hatte den herannahenden Bus erkannt, aber vorausgesagt, dass es für uns erbringen würde, weil wir vorher waren.
"Unser Testfahrer, der den Bus im Spiegel beobachtet hatte, erwartet auch den Bus zu verlangsamen oder zu stoppen." Und wir können uns vorstellen, dass der Busfahrer davon ausgegangen, dass wir stehen bleiben wollten. Leider führte diese Annahmen uns an der gleichen Stelle in der Spur zur gleichen Zeit."
Um nicht zu übertreffen, hat Tesla, einige Boo-boos von seinen eigenen gequält. -1-Fahrer gelang es,'sein Auto in einen Lieferwagen, beschwören', während ein anderer Besitzer im Moment gefilmt, was, den sein Auto kollidierte mit einem geparkten Transporter – lächerlich – auf der Überholspur einer Autobahn.
Es ist ein ziemlich großer Kontrast zwischen Google und Tesla Ansätzen. Googles Autos sind langsam zurollt, um die Straßen der Stadt, eine Strategie, die ihnen zu mehr Risiko und Unsicherheit, macht aber auch bedeutet, dass keine Unfälle langsamen dürften Beulen und Kratzer. Teslas Autos führen selbst bei hoher Geschwindigkeit auf Autobahnen, die einfachere Umgebungen sind aber mit weit höheren folgen.
Dann gibt es das menschliche Element. Google Autos sind wirklich selbstfahrende soll ohne menschlichen Eingriff erfordern. Teslas Fahrzeuge nicht, aber die Technik ist gut genug, dass Fahrer fühlen können, als ob sie sind. Das führt zu Selbstzufriedenheit, so fein säuberlich zusammengefasst durch den Fahrer in der zweite Vorfall oben, "Ja, ich konnte früher reagiert haben, aber wenn das Auto richtig 1.000mal bremst, Vertrauen Sie, es das nächste Mal zu tun. Mein schlechtes."
Wir haben dieses Spiel in einer anderen Branche – Flugreisen gesehen. Im Jahr 2009 stürzte Air France Flug 447 in den Atlantik mit 228 Menschen an Bord. William Langewiesche 2014 Essay über den Absturz ist eines der besten Dinge, die jemals über Automatisierung geschrieben und dient als eine Plausibilitätsprüfung der Idee, dass Fahrer von autonomen Straßenfahrzeugen einfach im Falle eines Absturzes eingreifen könnte.
AF447 war nach einer Abfolge von Ereignissen, in denen Sensoren fehlgeschlagen, verursacht der Autopilot deaktiviert werden, und ändern das Flugzeug steuern System in einen Modus, der pilot links und Co-pilot hoffnungslos verwirrt, so erschreckend gefangen von den Flugschreibern, verloren: "wir völlig verlor die Kontrolle über das Flugzeug und wir nicht alles verstehen!"_FITTED "Wir haben alles versucht!"
Der Absturz ausgelöst eine große Debatte über Piloten, Autopiloten und wie die beiden miteinander interagieren; insbesondere, ob Vertrauen auf Technologie weniger erfahrenen- und daher weniger leistungsfähigen - Piloten führte. Wie Langewiesche ausdrückte, "Automatisierung hat es immer unwahrscheinlicher, dass gewöhnliche Airline-Piloten jemals eine rohe Krise im Flug – aber auch mehr und mehr unwahrscheinlich, dass sie solch eine Krise bewältigen, wenn man entsteht."
Die Lektion hier, für Flugzeuge, Züge oder Autos, ist, dass man plus eins ist nicht gleich zwei. Kombinieren Sie einen Autopiloten mit ein guter Fahrer, und Sie erhalten einen Autopiloten mit, wenn kein schlechter Fahrer, zumindest nicht so eine gute.
Die Frage ist ob, der Rückgang der menschlichen Leistung abgestimmt oder übertroffen durch die Verbesserung, die der Computer auf den Tisch bringt. In Flugzeugen, erweist sich der Fall, und Unfälle haben in der Regel schob die Industrie mehr Computer als weniger Steuern. Piloten werden immer Zuschauer und Betreuer als Hands-on-Treiber.
Für Autos haben Tesla und andere welche Beträge zu eines der größten Experimente der Mensch-Computer-Interaktion in der Welt zu erfahren, Erprobung neuartiger Regelungsarten und Algorithmen auf unerfahrene und unerfahrene Fahrer und Streaming-Daten aus Tausenden von Fahrzeugen zurück in die Cloud zur Analyse ins Leben gerufen.
Es ist ein Experiment, das verlassen hat Regulierungsbehörden wie der US National Highway Traffic Safety Association kriechen, um aufzuholen, mit kein eindeutiger Konsens in Fragen wie, "wie Sie auch diese Software testen?" Mit der Zeit, was, die Sie tun, ist es wahrscheinlich, dass die Technologie bereits eine anerkannte Tatsache des Lebens, seine Sicherheit selbstverständlich von den Verbrauchern, ihren Fehlern als die Schuld seiner Fehleranfälligkeit menschlichen Meister abgeschrieben werden.
Wenn das der Fall, dann der erste Todesfall in den Händen eines selbstfahrenden Autos viel die gleiche Wirkung als Bridget Driscolls Untergang, vor 120 Jahren in diesem Sommer hätte: überhaupt nicht viel.