Wie lernen Roboter zu kochen? Durch das beobachten YouTube, offensichtlich.
Wissenschaftler haben Herumspielen, mit so genannten "deep Learning" (eine massive, Internet-basiertes Roboter Gehirn) für eine Weile jetzt. Aber eine neu veröffentlichte Papier beschreibt die neueste Entwicklung in der Roboter-Verarbeitungssystem: lernen, wie man kochen einfach aus YouTube-Videos ansehen. Roboter – sie sind genau wie wir!
Genau wie bevor es, Forscher an der University of Maryland und der Australian Research center aufgesaugt mit Robo Gehirn NICTA Daten direkt aus dem Internet für ihre AI Freund, diesmal mit 88 verschiedenen YouTube-Videos von Menschen, die kochen. Und die Tatsache, dass sie YouTube-Videos allein ist eigentlich Teil von was diese so beeindruckend macht. Laut der Studie:
Die [YouTube vides] wesentlich anspruchsvollere visuelle Problem als bestehende Kochen und Küche-Datasets (Küche/Hintergrundszene unterscheidet sich für viele und die meisten Videos dynamische Kamera ändert haben) dar.
Das heißt, gibt es viel mehr Variation in Daten für den Roboter, mit zu arbeiten. Doch trotz dieser möglichen Schluckauf, Roboter des Teams war in der Lage, einzelne Objekte zu erkennen, die verschiedenen Möglichkeiten, in denen sie, von der menschlichen Hand, und gehalten wurden, Vorhersagen, die wahrscheinlich nächsten Zug. Also nicht nur könnte es zu analysieren und die Videos brechen, aber früher habe ich die Informationen um zu lernen, wie man verschiedene Werkzeuge zu behandeln.
Auf diese Weise Roboter könnte möglicherweise theoretisch selbst zu unterrichten und bereits erlernte Fähigkeiten in der Zukunft einfach aus der "Beobachtung" nicht nur YouTube-Videos zu bereichern, aber alle anderen Informationen im Internet zu bieten hat.
Ein Wort der Beratung zu den Robotern: nicht die Kommentare gelesen. [UMD über Venture Beat]
Bild via YouTube