Selbstfahrender Autos konnte sehen, wie Menschen
Forscher haben einen wichtigen Schritt in der Computervision genommen, die
eines Tages ermöglichen Sie Autos fahren selbst oder in Krisensituationen reagieren
wo ein menschlicher Fahrer außer Gefecht gesetzt wird.
Anstatt
auf teure und fehleranfällige Technologien wie Radar oder Global
Positioning System, ist die neue Methode zur Steuerung der Roboter-Autos modelliert.
auf wie echte Menschen tatsächlich die Straße direkt vor ihnen sehen.
Wenn
Es kommt zu fahren, "Menschen tun alles mit Vision... [wir] sind
wirklich, wirklich gut und wir sind viel intelligenter und effizienter als
Computer,", sagte Wesley Snyder, ein Professor für elektrische und computer
Engineering bei North Carolina State University (NCSU) und Co-Autor von einem
neues Papier beschreibt die laufende Forschung.
Dennoch, menschliche
Fahrer machen Fehler aller Zeiten, so grimmig angegeben durch den Verkehr
Unfälle, die 34.000 Menschenleben in den Vereinigten Staaten letztes Jahr gefordert,
Laut der National Highway Traffic Safety Administration.
An
reduzieren Sie vor schweren Unfällen und alltäglichen elektrifizierter bei der Herstellung
Fahren weniger umständlich, haben Forscher jahrzehntelang gesucht.
elektronisch zu unterstützen oder sogar die menschliche Treiber ersetzen. Strom
innovative Technologien umfassen Kollision-
und Spurwechsel Warnsysteme in einigen Luxus-Autos gefunden.
Aber
Diese Funktionen fallen weit hinter den Roboter selbst zu fahren, der könnte
die High-Speed noch mühsamen Fahrten auf Autobahnen und Landstraßen zu behandeln
wo viele Verkehrstote auftreten.
Wobei das wohl des
Menschen fahren
Um herauszufinden, wie Menschen zuverlässig
Montieren Sie die visuelle Informationen auf einer Fahrbahn – Fahrbahnmarkierungen,
Verkehrszeichen, andere Fahrzeuge, Hindernisse und So weiter – Snyder und seine
Kollegen sind einen Computer testen.
Programm, das optisch einen "Konsens" über Straßenverhältnisse bildet.
Das Programm ordnet die geraden Linien und Objekte von einer Kamera erkannt
auf einem Fahrzeug montiert.
"Die Grundidee ist, wenn man eine
Szene, was Sie wirklich interessiert, ist die Größe der Straße", sagte
Snyder. "Es könnte geschwungene, gibt es möglicherweise Kreuzungen... aber die
Problem ist, dass es viele andere Sachen gibt, wie z. B. Bäume
und Gebäude, die gerade Linien auf dem Bild beitragen."
Die
NCSU Computer Programm Unkraut durch all dies verwirrende potenziell
Informationen mit einer Technik namens Parametric verwandeln für
Multi-Lane-Erkennung. Im wesentlichen sammelt das Programm Datenpunkte
und "sucht Beweise dafür, wo schlägt, die Seiten der Straße und
die Fahrbahnmarkierungen sind", sagte Snyder.
Von dieser grundlegenden, aber
kritische Bewertung der Form der Fahrbahn, ein Roboter
Fahrzeug kann dann die richtigen Lenkwinkel und Geschwindigkeit bleiben anzunehmen.
sicher in einer Gasse.
Das Computerprogramm erkennt mehrere
Fahrspuren gleichzeitig und Objekte auf einer Fahrbahn besser als die vorherigen
Versuche, sagte Snyder. Das Programm hat die Aktionen von echten menschlichen geführt.
Fahrer in Automobilen auf Testläufe und elektrisch betriebene Kinder
Spielzeugautos auf den Fluren an NCSU.
Viel versprechend, die computer
Programm ist nicht durch Schatten, Farben und Texturen abgeworfen und verträgt
geraden und geschwungenen Straßen, sagte Snyder.
Yue Wang, senior Research Fellow in Computervision und Bild
Verständnis von Singapur Institut für Infocomm Forschung, die nicht
verbunden mit der NCSU Arbeit, vereinbart, dass das Programm gut funktionieren sollte
auf einer gut ausgebauten Straße mit "starke Spur Grenze oder lane
Mark [Ings]."
Immer die Grundlagen nach unten
Denn jetzt, das Konzept
ist dezidiert Low-Tech, und beinhaltet einen Laptop verwenden, um zu analysieren
zwei Bilder schnappte eine Fahrbahn pro Sekunde – viel zu langsam fahren
nennenswerte Geschwindigkeit, sagte Snyder.
Die unten-nach-oben-Technik
entscheiden leidet wo Fahrspuren befinden auch Probleme wie
als einen breiten Fußgänger Gehweg zu verkennen, als eine andere Spur auf der Straße,
zum Beispiel.
Schließlich hofft Snyder, erheblich steigern die
Rechenleistung und geben den Akkumulator Algorithmus gehen in Echtzeit
Verkehr.
"Obwohl unser Ziel ist es autonomen fahren, [Forschung]
im Rahmen des angemessenen Anwendungen ", sagte Snyder
TechNewsDaily.
Er sagte einen praktischeren, näher Begriff Vorteil
ein Computersystem wie das in der Entwicklung bei NCSU wäre, führen
ein Fahrzeug mit einem betroffenen Fahrer sicher an der Seite einer Straße.
"If
Du hattest einen Herzinfarkt oder Hypoglykämie [Unterzuckerung aus
Diabetes] oder einen Schlaganfall, was Sie möchten, dass das Auto zu tun, etwas ist
"angemessen,", sagte Snyder. "Sie wollen nicht auf die Bremsen und Sie slam
will nicht laufen in jemand anderes, Sie wollen weg von der Straße ziehen und
kommen Sie zum Stillstand anmutig und rufen Sie 9-1-1... So gibt es eine kurze Zeit
wo ein Auto muss autonom durchführen, und das ist der kürzere Begriff Ziel
Diese Arbeit ist in Richtung, ", sagte Snyder.
Ein Papier
Beschreibung der Forschung werden in Anchorage, Alaska in früh präsentiert
Mai auf der IEEE International Conference on Robotics and Automation,
unter dem Vorsitz von Snyder.
- Schwellenländern
Tech könnte Morgen Autos sicherer machen - Abgelenkt
Fahren: Die Gefahren der Mobile SMS und Anrufe - Militärische
Augen "Smart Kamera" Robotik visuelle Intelligenz steigern