Der Grund wir autonome Autos müssen nicht jederzeit bald
Autofahren ist einfach. Motor auf, Augen zu öffnen, einen Fuß auf dem Gas und du bist fertig. Warum dauert es so autonome Autos so lange zu lernen?
Gerade jetzt, ist eine Flotte von selbstfahrenden Autos die Straßen von Mountain View täglich Kreuzfahrt – sowie einige kleinere Flotten benutzerdefinierte Prototypen, die Google auch privat testen ist. Aber Sie finden sie überall auf der ganzen Welt, ob es ein Nissan Leaf als Roboter-Auto in bedecktem Oxford, eine Flotte von autonomen Volvo XC90s in Schweden bekannt ist oder vielleicht sogar etwas geheimnisvoll in sonnigen Cupertino. Aber überall dort, wo in der Welt sie sind, eine Sache gemein: ein mächtige rechnerischer Kern, die eines Tages lassen, wie Menschen zu fahren – hoffentlich noch besser.
Menschen verfügen über eine Vielzahl von nützlichen Fähigkeiten um ein Auto zu steuern: Wir haben Augen und Ohren zu spüren, die Welt um uns; eine rasante Gehirn diese Eingaben verarbeiten; und zum größten Teil ein starkes Gefühl der Erinnerung, die uns erlaubt, die viele Straßen fahren, die wir kennen, auch mit großer Zuversicht entgegen. Aber es ist ein himmelweiter Unterschied zwischen dem Weg, den wir die Welt sehen und die Art, wie, die ein Computer funktioniert. "Sie könnte ein Auto zu fahren, einfach indem man in die Regeln gerade aus einer DMV-Handbuch, Programm" schlägt Katelin Jabbari von Googles selbstfahrende Auto Team. "Aber, dass 99 Prozent der Dinge, auf die wir stoßen auf den Straßen berücksichtigt nicht." Wie leise muss ich brechen? Wie schnell sollte ich eine Wendung nehmen?" Diese Fähigkeiten mit digitalen Sensoren und Silizium-Chips das Neuerstellen ist möglich – es ist nicht leicht.
Eine autonome Auto braucht drei grundlegende Fähigkeiten um sich herum zu fahren: Erstens hat es zu verstehen, wo es ist; Zweitens hat es, herauszufinden, was die sicherste Route an den nächsten Standort ist; und drittens muss es wissen, wie soll ich an die nächste Stelle verschieben. Es ist genau das, was wir alle tun, wie wir fahren: lokalisieren, wahrnehmen, bewegen. Zum Glück hat Digitaltechnik die dritte Stufe trivial gerendert. Servolenkungen sind leicht motorisiert, wie Sie wissen, ob Sie einen Parkplatz autonom gesehen haben.
Also die physische Handeln des Fahrens – Pedale betätigen und drehen am Lenkrad – wollte immer einfach sein. Das Problem immer Autos, diese ersten beiden Fähigkeiten zu meistern. Im Wesentlichen bedeutet es Trainingscomputer, die Art und Weise imitieren menschliche Gehirnen physischen Raum wahrnehmen, wie sie durchlaufen.
Die vorherige Karte
"Ich werde oft gefragt:" Warum nicht einfach verwenden GPS?"" Will Maddern, witzelt. Er ist ein Forscher mit der University of Oxford Mobile Robotics Group, die Roboter-Auto entwickelt hat. "Dies ist eigentlich eine sehr vernünftige Frage: die GPS-Satelliten-Konstellation ist eine beeindruckende Ingenieurskunst."
Das Problem ist, dass GPS einige wichtigeren Einschränkungen hat. Erstens, es funktioniert nicht ohne eine klare Sicht auf den Himmel – so navigieren, Tunnel, Parkhäuser oder sogar Wälder ausgeschlossen ist. Noch wichtiger ist, hat es eine Auflösung in der Größenordnung von Metern, die Gewissheit ist nicht genug, um sicher zu navigieren, ein Auto durch die Straßen der Stadt, wo nur Zentimeter den Unterschied zwischen Sicherheit und einer Kollision bedeuten kann.
"Wir verwenden oft GPS in Gang bringen unsere Lokalisierung Algorithmen" Maddern gibt, "aber verlassen wir uns nicht darauf, uns zu sagen, wo in der Fahrbahn das Auto ist." Stattdessen lernen selbstfahrende Autos, ihre Position auf der Straße auf ganz andere Weise zu identifizieren.
Kombinierte LIDAR und Stereokamera Punktwolken-Karte von Oxford (Bild: University of Oxford)
"Zwei Dinge müssen geschehen," erklärt Sridhar Lakshmanan, ein Professor of Engineering in Bildverarbeitung und Computer Vision für autonome Fahrzeuge an der University of Michigan spezialisiert ist. "Die Karten müssen genauer geworden und die Registrierung für sie braucht, um eine genauere." "
Anstatt unter Berufung auf die Art der Karten, dass Ihr in-Car Navigationssystem verwendet, die autonome Autos von Leuten wie Google und Oxford University entwickelt Vertrauen auf reichen, 3D Karten von der Straße bekannt als vorherige Karten. Sie sehen ein wenig aus wie das Bild oberhalb. Anschließend verwenden sie on-Board-Sensoren um zu vergleichen, was das Auto sieht an jedem beliebigen Punkt in der Zeit, was es in seinem Speicher verstaut hat. "Vorherige Karten ermöglichen das Auto zu haben, viel besser verstehen, wo es in der Welt ist, bevor sie Daten in Echtzeit, sieht", erklärt Jabbari. "Damit es weiß, was sollte geschehen, sie können sehen, was tatsächlich geschieht in Echtzeit und machen können, ein Urteil darüber, was es tun sollte." "
Die Notwendigkeit einer Karte stellt eine natürliche Begrenzung auf die Art, wie die Autos, die jedoch verwendet werden. "Das erste, was müssen wir tun, bevor wir autonom fahren kann ist die Straßen Karte", räumt Jabbari.
Google und andere bauen diese Karten Stück für Stück, mit den gleichen Autos sie bereitstellen für autonomes Fahren auf die Welt zu erfassen, die sie im herrlichen Detail umgibt – sie sind bereits mit dem Kit, was gebraucht wird, noch die Karten, nachdem alle geladen.
Die reale Welt
Und autonome Autos sind wirklich triefend mit exotischen Sensorik. Googles Autos auf Laser und Radar Scanner angewiesen. Velodyne 64-Beam Laser sitzt auf ihren Fahrzeugen, fröhlich wie ein Polizeiauto Blinklicht dreht. Sie können sie auf dem Dach des Autos im Bild unten sehen.
VELODYNE 64-Beam Laser auf Googles selbstfahrende Autos. (Bild: AP)
Diese Systeme – referierte, als LIDAR wegen ihrer Laser-Licht-Radar Genre-Maischen — Scannen 1,3 Millionen Punkte jedes Mal, wenn sie Spinnen rund, in konzentrischen Wellen, die acht Füße aus dem Auto beginnen. Sie sind in der Lage, ein 14-Zoll-Objekt ein hundert und sechzig Fuß entfernt zu identifizieren. Das Radarsystem, das zweimal in diesem Bereich hat — es ist weniger präzise, sondern sollte in der Theorie das Auto durch Regen, Schneeregen und Schnee sehen ermöglichen. Die Autos, die in Oxford, entwickelt unterdessen verwenden eine Reihe von Stereokameras und LIDAR Sinne. Andere – von AutoNOMOS Labs in Deutschland an Stanfords Center for Automotive Research – eine Kombination aus ähnlichen Sensoren verwenden. Unabhängig von der genauen Sensoren am Fahrzeug, das Ziel ist das gleiche: zu saugen so viel Informationen über die Umgebung des Autos wie möglich.
Aber warum machende Karten überhaupt stört, wenn Sie solche erstaunlichen Echtzeit-Daten von den Sensoren haben? "Nicht alle autonomen Fahrzeugentwickler zustimmen, dass vorherige Karten wichtig oder gar notwendig, für autonome Navigation sind", sagt Maddern. "Eine Reihe von Forscher und Hersteller vertreten die Auffassung, die ein Fahrzeug nicht braucht zu wissen, wo es genau ist, um auf die Umgebung reagieren – Spuren folgen, gehorchen, Verkehrszeichen und Ampeln und reagieren angemessen auf andere Autos und Verkehrsteilnehmer, sie suggerieren, dass ein Auto mindestens durchführen sollten, ebenso wie eine menschliche fahren auf einer unbekannten Strecke."
Die Leute bei Google zustimmen diese Vorstellung allerdings. "Wenn Sie nur auf Echtzeit-Daten angewiesen sind, gibt es viel mehr Verarbeitung, das muss getan werden," erklärt Jabbari. "Vorherige Karten erleichtern es... es ist eine zusätzliche Sicherheit und Verständnis." Sie vergleicht, die vorherige Karte zum fahren in einer vertrauten Umgebung: wissen Sie immer, die Straßen wie Ihre Westentasche, wo immer Sie sind.
Rechts scheint nun zumindest die größten Fortschritte von denjenigen gemacht werden, die die vorherige Karte annehmen. Das ist um nicht zu sagen, dass die rein Echtzeit-Ansatz unklug; nur, dass es eine viel schwierigere Aufgabe stellt. Während es letztlich der beste Ansatz sein könnte, sieht es derzeit unwahrscheinlich, dass erste auf den Markt.
Sogar mit einer on-Board-Karte, eine autonome Auto sammelt immer frische Informationen darüber, wie die Welt aussieht – vor allem unter verschiedenen Bedingungen, wie z. B. Schnee, Wind, Regen oder Dunkelheit. Maddern erklärt, dass das Auto in Oxford entwickelt immer neue Karten erstellen ist Gebäude "mehrere Erfahrungen am selben Ort unter verschiedenen Bedingungen." Auf diese Weise das Auto hat viele "Erinnerungen" die gleiche Strecke, und derjenige am besten geeignete für die Fahrbedingungen zu einem bestimmten Zeitpunkt zugreifen kann.
Google das selbstfahrende Auto (Bild: Google)
Generierung der ersten Runde des vorherigen Karten wird noch, als ein Hindernis für den weit verbreiteten Roll-Out der autonomen Autos oft zitiert. Aber "Google ist wirklich gut-Mapping" Jabbari hervorhebt. Kombinieren Sie Google Maps Madderns Idee, dass Autos eine Datenbank mit Erfahrungen entwickeln und autonome Autos könnte eine feste Speicher Basis ihrer Umgebungen entwickeln. Und im Gegensatz zum Menschen, alles, was sie tun müssen, ist ein Datennetz auf die neueste Version herstellen.
Die Welt mit Auto-Augen sehen
Sogar mit einem perfekten Gedächtnis muss das Auto noch vergleichen seine mentalen Landkarten mit was er tatsächlich sieht. Wie das geschehen ist, hängt von der Sensoren an Bord des Autos. Bei einem Laser-Scanner, wie die auf dem Dach des Google Auto generiert die Hardware eine Millimeter genaue 3D-Darstellung der Umgebung, die eine Punktwolke aufgerufen hat. Da Punkt Wolke Bilder so unglaublich genau sind, es ist leicht genug, um die vorherige Karte, um neue Daten mit bekannten Algorithmen, die die beiden Karten vergleichen zu vergleichen – vorherige und Gegenwart — möglichst genau ausrichten. Das macht es sehr einfach, mit Sub-Zentimeter-Genauigkeit zu identifizieren, wo ist das Auto auf der Straße.
Aber 3D LIDAR Sensoren bleiben sehr kostspielig, hohem Leistungsbedarf und viele bewegliche Teile haben, sagt Maddern. Thats, warum viele Autos – wie jene in Oxford entwickelt – normale Digitalkameras verwenden, um Realität, mit dem Auto Karte vergleichen. Einige davon sind Stereo, andere Monokular — aber keines ist so genau wie LIDAR. Das bedeutet keine einfache algorithmische Vergleiche.
Anstatt zu vergleichen die Prior und Realtime Karten Pixel für Pixel, sagt Maddern, wird der Computer "Sehenswürdigkeiten", wie Ecken, Kanten und andere Funktionen erkennen. Diese Sehenswürdigkeiten in beiden Übersichten werden abstrahiert in "Patches", die verglichen werden. Maddern sagt das System funktioniert ziemlich gut – "auch wenn die Patches sind Größen oder unter verschiedenen Lichtverhältnissen."
In den meisten Fällen funktioniert es. Das Video unten, das Roboter-Auto fisheye-Objektiv Monokular Kameraaufzeichnungen verglichen wird, um eine vorherige Karte zeigt, zeigt so viel. Und die Verlockungen des kostengünstigen Sensoren liegt auf der Hand: sie hinzufügen ein Auto kostet nur Tausende von Dollar, anstatt zehn oder Hunderttausende. Aber die Technik kann kämpfen konfrontiert mit Bewegungsunschärfe, Blendenfleck und Witterungseinflüsse. Da die Kosten einer gemeinsamen Kritik an autonome Fahrzeuge ist, ist es nicht verwunderlich, dass "lösen diese Herausforderungen... ist ein sehr aktives Forschungsgebiet" wie Maddern es ausdrückt.
Monokular Kameraaufzeichnungen ist abgestimmt auf vorherige Kartendaten von Roboter-Auto (Bild: University of Oxford)
Objekterkennung
Alle diese Techniken sind jedoch nur ein Mittel für das Auto zusammenpassen von einem Bild zum anderen erlauben es, sich selbst zu finden. Entscheidend ist was menschliche Fahrer dann mit den gleichen Informationen tun, es verarbeiten – zu wissen, wie sie darauf reagieren sollten. So was Forscher wollen machen Autos, das erkennen und reagieren dann auf Funktionen in ihrer Umgebung – im Grunde sprechen wir über Autos, die ein Äquivalent zum menschlichen Wahrnehmung zu entwickeln.
"Das ist der Heilige Gral der autonome Fahrzeuge," gesteht Lakshmanan. Es ist eine "Aufmerksamkeit auf unerwartete Hindernisse, seien es Verkehr Fässer heute, vor einem Fußgängerüberweg oder ein Auto macht einen plötzlichen Spurwechsel angelegt." Und es ist genau das, was Autos brauchen, wenn sie "zu unmittelbaren Veränderungen in ihrem Umfeld anzupassen."
Wahrnehmung, hat natürlich unterschiedlicher Komplexität. In seiner einfachsten Form unterrichten ein Auto zu erkennen, Objekte ist ähnlich wie bei Google Bildersuche, die Unterschiede zwischen einer Teekanne und Katze kennen lehren. Geben es mit genug gekennzeichnet Bilder von den beiden zu lernen, und es wird irgendwann den Dreh der Dinge.
Dies ist so ziemlich was Google, die bisher mit ihren Autos zu. "Wir haben es für Kategorien von Dingen zu verstehen gelernt. So es Radfahrer, Fußgänger und Fahrzeuge erkennt – auch bestimmte Arten von Fahrzeugen, wie Polizeiautos und Schulbusse, "erklärt Jabbari. Und basierend auf jedes Objekt Reihe von Bewegungen, Google trainiert auch Autos, um vorherzusagen, welche zukünftige Aktionen zu erwarten. "Wenn es einen Radfahrer, die ihre linke Hand aufstellen sieht, wahrscheinlich eine Anzeige, die sie gehen, um nach links oder in der linken Spur zusammenführen, ist", erklärt Jabbari. "Es erlaubt uns, das Auto Verhalten anzupassen."
LIDAR-Daten von Roboter-Auto verwendet, um andere Verkehrsteilnehmer zu klassifizieren. (Bild: University of Oxford)
Letztlich muss das Auto in der Lage sein, all dies herauszufinden, für sich selbst, mit keine Lehre erforderlich. Diese Ebene der Wahrnehmung, die die einzelne größte Hürde für selbstfahrende Autos darstellt. "Die Fähigkeit zu emulieren das menschliche Gehirn... das wird sein – wenn ich das sagen darf – die geheime Zutat, das, was ein Unternehmen kommt man zu dem Markt erste, erlaubt" Lakshmanan, erklärt.
Bis eine autonome Auto kann, sagen, erkennen und veer um ein Kind läuft heraus in die Straße ganz von selbst, es geht immer um Widerstand gegen ihre Präsenz auf den Straßen sein. Aber das bloße Gewicht der technologischen und algorithmischen Fortschritt schlägt vor, das wird nicht zu lang sein. Autofahren kann einfach sein — nur herausstellt, dass zu perfektionieren etwas ganz anderes ist.
Kontaktieren Sie den Autor dieses Beitrags auf [email protected].