Googles künstliche Intelligenz können Sie wahrscheinlich bei Videospielen schlagen
Computer haben Menschen an Schach und "Jeopardy!" bereits geschlagen, und jetzt können sie ihre Kappen eine weitere Feder hinzufügen: die Fähigkeit für den besten Menschen in mehreren klassischen Arcade-Spiele.
Ein Team von Wissenschaftlern bei Google erstellt eine künstlich intelligente Computer-Programm, die sich Atari 2600 Video-Spiele, wobei nur minimale Hintergrundinformationen um zu lernen wie man spielt spielen beibringen kann.
Durch die Nachahmung von einige Prinzipien des menschlichen Gehirns, das Programm ist in der Lage, auf dem gleichen Niveau wie ein professioneller Mensch gamer spielen, oder besser, auf die meisten Spiele, berichten Forscher in der Fachzeitschrift Nature (Februar 25) heute. [Super-intelligenten Maschinen: 7 Roboter Futures]
Dies ist das erste Mal, das jemand ein System künstlicher Intelligenz (AI) gebaut hat, das lernen können, zeichnen sich durch eine Vielzahl von Aufgaben, Co-Autor Demis Hassabis, ein AI-Researcher bei Google DeepMind in London, sagte auf einer Pressekonferenz gestern zu studieren.
Zukünftige Versionen von diesem Programm AI in allgemeineren Entscheidungsfindung Anwendungen, von fahrerlosen Autos, Wettervorhersagen, verwendet werden könnten, sagte Hassabis.
Lernen durch Verstärkung
Menschen und andere Tiere lernen durch Verstärkung – engagiert in Verhaltensweisen, die eine Belohnung zu maximieren. Zum Beispiel verursachen lustvolle Erfahrungen das Gehirn chemische Neurotransmitter Dopamin freisetzen. Aber um in einer komplexen Welt zu lernen, das Gehirn muss Eingang von den Sinnen zu interpretieren und verwenden Sie diese Signale, um vergangene Erfahrungen zu verallgemeinern und auf neue Situationen anwenden.
IBM Computer Deep Blue besiegt Schachspieler Garri Kasparow im Jahr 1997, als künstlich intelligente Watson Computer der Quiz-Show "Jeopardy!" im Jahr 2011 gewann, galten diese beeindruckende technische Meisterleistungen, aber sie waren meistens vorprogrammierten Fähigkeiten Hassabis sagte. Im Gegensatz dazu ist die neue DeepMind AI lernfähig eigenständig, mit Verstärkung.
Um das neue AI-Programm, Hassabis und seine Kollegen erstellt ein neuronales Netzes basierend auf "deep Learning" zu entwickeln, eine lernfähige Algorithmus aufbaut, die zunehmend mehr abstrakte Darstellungen von raw-Daten. (Google Tiefe lernen bekanntlich verwendet, um ein Netzwerk von Computern, um Katzen basierend auf Millionen von YouTube-Videos erkennen zu trainieren, aber diese Art des Algorithmus ist tatsächlich viele Google-Produkte, von der Suche Übersetzung beteiligt.)
Das neue AI-Programm ist die "Tiefe Q-Netzwerk" oder DQN genannt, und es läuft auf einem normalen Desktop-Computer.
Spiele spielen
Die Forscher untersuchten DQN auf 49 Atari 2600 Spiele-Klassiker, wie "Pong" und "Space Invaders". Die einzige Stücke von Informationen über das Spiel, das das Programm empfangen wurden die Pixel auf dem Bildschirm und das Spiel der Gäste. [Siehe Video von Google AI Videospiele spielen]
Var Spieler = OO. Player.Create ('ooyalaplayerFhZHRsczoFw_M6woqdFvX1raUrDngaHU', 'FhZHRsczoFw_M6woqdFvX1raUrDngaHU', {}
Höhe: 352,
Breite: 540,
Autoplay: falsch,
"Google-Ima-anzeigen-Manager": {}
'adTagUrl':'http://pubads.g.doubleclick.net/gampad/ads?sz=640x480&cust_params=frmt%3D0%26frmt%3D1%26frmt%3D22%26plID%3D91ac0f6dcbdf466c84659dbc54039487%26ttID%3DFhZHRsczoFw_M6woqdFvX1raUrDngaHU%26pos%3Dpreroll%26cue%3Dpre%26cgm%3D0&cmsid=1849&iu=%2F10518929%2Ftmn.sdc&ciu_szs=728x90,300x250&impl=s&gdfp_req=1&env=vp&output=xml_vast2&unviewed_position_start=1&url=[referrer_url]&correlator=[timestamp]&overlay=1&vid=[oo_embedcode]'
},
});
"Das System lernt, im Wesentlichen nach dem Zufallsprinzip Tasten zu spielen" um eine hohe Punktzahl zu erreichen, Co-Autor Volodymyr Mnih, auch ein Research Scientist bei Google DeepMind, sagte auf der Pressekonferenz zu studieren.
Nach ein paar Wochen Training spielte DQN sowie menschliche Profispielern auf viele der Spiele, die von Side-scrolling-Shooter 3D Autorennen Spiele, reichten die Forscher sagten. Das AI-Programm auf mehr als die Hälfte der Spiele 75 Prozent der menschlichen Partitur erzielte, fügten sie hinzu.
Manchmal entdeckt DQN Spiel Strategien, die die Forscher nicht sogar an gedacht – zum Beispiel in dem Spiel "Seaquest", der Spieler steuert ein u-Boot und muss vermeiden, sammeln oder zerstören Sie Objekte in unterschiedlichen Tiefen. Das AI-Programm entdeckt, dass es am Leben zu bleiben könnte durch das u-Boot knapp unter der Oberfläche zu halten, sagte der Forscher.
Komplexere Aufgaben
DQN auch ein weiteres Merkmal des menschlichen Gehirns nutzen: die Fähigkeit, Erfahrungen der Vergangenheit erinnern und wiederholen sie um Aktionen (ein Prozess, der in eine Seepferdchen-förmigen Gehirnregion namens Hippocampus vorkommt) zu führen. Ebenso DQN "Memories" aus seinen Erfahrungen gespeichert, und diese wieder in ihren Entscheidungsprozess während des Spiels gefüttert.
Aber menschliche Gehirne nicht mehr alle Erfahrungen die gleiche Weise. Sie sind voreingenommen, um emotional geladene Ereignisse zu erinnern, wichtiger sein dürften. Zukünftige Versionen von DQN diese Art von voreingenommenen Speicher aufnehmen sollten, sagten die Forscher.
Nun, da ihr Programm Atari Spiele gemeistert hat, fangen die Wissenschaftler es auf komplexere Spiele aus den 90er Jahren, wie 3D Rennspiele zu testen. "Letztlich wenn dieser Algorithmus einen Mietwagen in racing-Spiele, mit ein paar zusätzlichen Optimierungen Rennen kann es sollte fähig sein, ein echtes Auto fahren", sagte Hassabis.
Darüber hinaus möglicherweise zukünftige Versionen des Programms AI in der Lage, Dinge wie Plan eine Reise nach Europa, Buchung der Flüge und Hotels zu tun. Aber "Wir sind am meisten begeistert mit AI um zu helfen, uns die Wissenschaft zu tun", sagte Hassabis.
Folgen Sie Tanya Lewis auf Twitter . Folgen Sie uns @livescience, Facebook & Google +.