Reading Roboter-Köpfe mit Virtual Reality
Var Spieler = OO. Player.Create ('ooyalaplayerJmcnNocTokYy9xj6orCaDmLKwRfj8f0h', 'JmcnNocTokYy9xj6orCaDmLKwRfj8f0h', {}
Höhe: 352,
Breite: 540,
Autoplay: wahr,
"Google-Ima-anzeigen-Manager": {}
'adTagUrl':'http://pubads.g.doubleclick.net/gampad/ads?sz=640x480&cust_params=frmt%3D0%26frmt%3D1%26frmt%3D22%26plID%3D91ac0f6dcbdf466c84659dbc54039487%26ttID%3DJmcnNocTokYy9xj6orCaDmLKwRfj8f0h%26pos%3Dpreroll%26cue%3Dpre%26cgm%3D0&cmsid=1849&iu=%2F10518929%2Ftmn.sdc&ciu_szs=728x90,300x250&impl=s&gdfp_req=1&env=vp&output=xml_vast2&unviewed_position_start=1&url=[referrer_url]&correlator=[timestamp]&overlay=1&vid=[oo_embedcode]'
},
});
Herauszufinden, was die anderen Leute denken ist schwer kann, herauszufinden, was ein Roboter denkt jedoch geradezu unmöglich. Mit kein Hirn in spähen müssen Forscher hart arbeiten, um einen Bot Gesichtspunkt zu sezieren.
Aber in einem dunklen Raum am Massachusetts Institute of Technology (MIT), testen Forscher ihre Version eines Systems, das sehen und analysieren, welche autonome Roboter, einschließlich Drohnen fliegen können, sind "denken". Die Wissenschaftler nennen das Projekt "messbare virtual Reality" (MVR) System.
Der virtual-Reality-Teil des Systems ist eine simulierte Umgebung, die auf den Boden durch eine Reihe von deckenmontierten Beamer projiziert wird. Das System ist messbar, weil die Roboter bewegen Sie sich in dieser virtuellen Umgebung mit Bewegungssensoren erfassen ausgestattet sind, überwacht mit Kameras, mit denen die Forscher die Bewegungen der Roboter zu messen, wie sie ihre virtuelle Umgebung navigieren. [5 überraschende Möglichkeiten Drohnen könnte in der Zukunft verwendet werden]
Das System ist ein "Spin auf herkömmliche virtual Reality, die entworfen ist, um eines Roboters"Wahrnehmung und Verständnis der Welt,"visualisieren" Ali-Akbar Agha-Mohammadi, als Post-Doc Mitarbeiterin am Laboratory des MIT Luft-und Kontrollen, sagte in einer Erklärung.
Mit dem MVR-System sehen die Forscher den Weg geht ein Roboter zu ergreifen, um ein Hindernis in den Weg, zum Beispiel zu vermeiden. In einem Experiment eine Person Stand in der Roboter-Pfad und der Bot musste herauszufinden, der beste Weg, um ihn zu bekommen.
Ein großer rosa Punkt erschien, den schreitenden Mann zu folgen, als er quer durch den Raum bewegt – eine visuelle Symbolisierung des Roboters Wahrnehmung dieser Person in der Umgebung, so die Forscher. Da der Roboter bestimmt strahlte seinen nächsten Zug, eine Reihe von Linien, die jeweils einer möglichen Route anhand des Roboters Algorithmen, quer durch den Raum in verschiedenen Mustern und Farben, die als der Roboter und der Mann positioniert sich verschoben. Eine grüne Linie repräsentiert die optimale Route, die der Roboter schließlich nehmen würde.
"Normalerweise ein Roboter kann eine Entscheidung treffen, aber Sie können nicht ganz sagen, was in seinen Kopf, los ist warum ist es die Wahl einen bestimmten Pfad," Agha-Mohammadi sagte. "Aber wenn Sie den Roboter Plan auf den Boden projiziert sehen können, können Sie verbinden, was es wahrnimmt, mit was es tut, um seine Handlungen Sinn."
Und das Verständnis des Roboters Entscheidungsprozess ist nützlich. Für eine Sache, sagte es Agha-Mohammadi und seine Kollegen die Gesamtfunktion des autonomen Robotern zu verbessern lässt, er.
"Als Designer, vergleichen wir den Roboter Wahrnehmungen mit wie er sich verhält, Fehler im Code viel schneller finden wir. Zum Beispiel, wenn wir eine Quadrotor [Helicopter] fliegen, und sehen etwas schief in seine Meinung, wir können den Code zu beenden, bevor er berührt die Wand oder Brüche,"sagte Agha-Mohammadi.
Diese Fähigkeit, eine autonome Bot zu verbessern, indem Sie unter Hinweise aus der Maschine selbst einen großen Einfluss auf die Sicherheit und Effizienz der neuen Technologien wie selbstfahrende Autos und Paketzustellung Drohnen haben könnte, sagte der Forscher.
"Gibt es eine Menge Probleme, die wegen der Ungewissheit in der realen Welt oder Hardware-Probleme auftauchen, und das ist, wo unser System deutlich reduzieren kann die Menge an Aufwand von den Forschern, die Ursachen genau zu bestimmen", sagte Shayegan Omidshafiei, ein Student am MIT, die geholfen haben die MVR-System zu entwickeln. [Super-intelligenten Maschinen: 7 Roboter Futures]
"Traditionell, physikalische und Simulationssysteme waren unzusammenhängend," sagte Omidshafiei. "Sie müssten gehen auf die unterste Ebene des Codes, break it down und versuchen, herauszufinden, wo die Probleme von kamen. Jetzt haben wir die Möglichkeit, Low-Level-Informationen auf physikalische Weise zu zeigen, damit Sie nicht zu tief in Ihrem Code gehen, oder Umstrukturierung Ihre Vision davon, wie Ihr Algorithmus funktioniert. "Man konnte Anwendungen sehen, wo Sie reduzieren könnte einen ganzen Monat Arbeit in ein paar Tagen."
Denn jetzt MVR-System ist nur im Innenbereich verwendet wird, wo es autonome Roboter in simulierten robuste Terrainbefore testen können die Maschinen tatsächlich begegnen der realen Welt. Das System könnte schließlich Roboter Designer ihre Bots in jeder Umgebung zu testen, die sie in das Projekt Prototypenphase wünschen lassen, sagte Omidshafiei.
"[System] schneller Prototyping und testing in näher-Reality-Umgebungen ermöglichen", sagte Alberto Speranzon, ein Personal Research Scientist bei United Technologies Research Center, mit Sitz in East Hartford, Connecticut, wer nicht an der Forschung beteiligt war. "Es ermöglicht auch, die Erprobung Entscheidungsalgorithmen in sehr rauen Umgebungen, die nicht leicht zugänglich für Wissenschaftler sind. Zum Beispiel mit dieser Technologie, könnte wir Wolken über einer Umgebung überwacht von einem hochfliegenden Fahrzeug zu simulieren und Video-Verarbeitung System Umgang mit semi-transparenten Hindernisse."
Folgen Sie Elizabeth Palermo @ techEpalermo . Folgen Sie Live Science @livescience , Facebook & Google + .