Künstliche Intelligenz schlägt "Komplexestes Spiel entwickelt von Menschen"

Machen Sie den Weg für die Roboter.
Ein System künstlicher Intelligenz hat einen professionellen Go-Spieler knacken eines langjährigen großen Herausforderungen auf dem Gebiet besiegt. Darüber hinaus besiegte das neue System, genannt AlphaGo, den menschlichen Spieler durch das Spiel von Grund auf mit einem Ansatz, bekannt als "deep Learning" lernen die beteiligten Forscher sagen.
Die atemberaubende Niederlage legt nahe, dass die neue künstliche Intelligenz (KI) Lernstrategie könnte ein mächtiges Werkzeug in anderen Arenen, wie Unmengen von Klimadaten ohne offensichtliche Struktur zu analysieren oder komplizierte medizinische Diagnosen machen, der Wissenschaftler sagte.
Die Forscher berichteten auf der neuen Matchup heute online (27. Januar) in der Zeitschrift Nature. [Super-intelligenten Maschinen: 7 Roboter Futures]
Mensch gegen Maschine
Seit Gary Kasparov in IBMs Deep Blue besiegt ihre legendären Schach Spiel in 1997, KI-Forscher haben ruhig Handwerk, Roboter, die mehr und mehr Menschen Freizeitbeschäftigungen meistern können. Im Jahr 2014 besiegt von IBM Watson die Gefahr! Champion Ken Jennings, und im vergangenen Jahr ein Computer namens Claudico — das kann "bluffen" durch Heads-up No-Limit Texas Hold em – menschliche Pokerspieler einen Lauf für ihr Geld in einem Casino in Pittsburgh gab.
Jedoch war eine viel härtere Nuss zu knacken. Das Strategiespiel, das vor rund 2.500 Jahren seinen in China Ursprung, stützt sich auf simplen Regeln. Spieler legen weiße und schwarzen Steinen auf ein großes gerasterten Brett um die meisten Gebiet umschließen. Steinen einer Farbe, die anderen freundlichen Steinen anfassen sollen lebendig, während deren Fluchtwege abgeschnitten sind tot sind.
Doch hinter der einfachen Regeln liegt eine Spiel der unglaublichen Komplexität. Die besten Spieler verbringen ein Leben lang um das Spiel zu meistern lernen, Abfolgen von Bewegungen wie "der Leiter," Entwicklung von Strategien zur Vermeidung von nicht enden wollenden Schlachten für Gebiet namens "ko Kriege," zu erkennen und entwickeln eine unheimliche Fähigkeit, dem Go-Brett schauen und wissen, welche Stücke in einem Augenblick leben, tot oder in der Schwebe.
"Es ist wahrscheinlich das komplexeste Spiel entwickelt von Menschen," Co-Autor zu studieren Demis Hassabis, Informatiker am Google DeepMind in London, sagte gestern (Jan. 26) bei der Pressekonferenz. "Es muss 10 die Macht 170 möglichen Positionen, die größer ist als die Anzahl der Atome im Universum."
Der Schlüssel zu dieser Komplexität sagte Gos "Verzweigung Muster", Hassabis. Jeder Go-Spieler hat die Möglichkeit der Auswahl aus 200 Züge in jedem seiner Züge, im Vergleich zu 20 möglichen Züge pro Spielzug im Schach. Darüber hinaus gibt es keine einfache Möglichkeit, einfach das Board betrachten und quantifizieren, wie gut ein Spieler zu einem bestimmten Zeitpunkt geht. (Im Gegensatz dazu Menschen erhalten eine ungefähre Vorstellung davon, wer eine Partie Schach gewinnt einfach indem Sie die Stücke noch im Spiel Punktwerte zuweisen oder gefangen genommen, sagte Hassabis.)
Infolgedessen konnten die besten AI-Systeme, wie z. B. IBM Deep Blue, nur Amateur menschlichen Go-Spieler zu besiegen. [10 Technologien, die Ihr Leben verändern werden]
Tiefe lernen
In der Vergangenheit haben Experten KI Systeme spezifische Reihenfolgen von Zügen oder taktische Muster gelehrt. Anstelle dieser Methode trainiert Hassabis und seine Kollegen das Programm namens AlphaGo, mit keine vorgefassten Meinungen.
Das Programm verwendet einen Ansatz namens Tiefe lernen oder tief neuronale Netze, in denen Berechnungen über mehrere Ebenen hierarchisch organisierten, auftreten und das Programm speist Input von einer niedrigeren Ebene in jede nachfolgende höhere Schicht.
Im wesentlichen beobachtet AlphaGo"" Millionen von Go Spiele zwischen Menschen, die Spielregeln zu lernen und grundlegende Strategie. Der Computer gespielt dann Millionen von anderen spielen gegen sich selbst zu erfinden, neue Go-Strategien. Auf seine eigene, AlphaGo beherrschen grundlegende Sequenzen der lokalen Bewegungen zu greifen größere taktische Muster absolvierte sagten die Forscher.
Um diese Aufgabe auszuführen, AlphaGo stützt sich auf zwei Sätze von neuronalen Netzwerken – ein Wertschöpfungsnetzwerk, welches im Wesentlichen die Vorstandspositionen schaut und entscheidet, wer gewinnt und warum, und ein Politik-Netzwerk, welches bewegt sich wählt. Im Laufe der Zeit trainiert die Politiknetzwerke Wertschöpfungsnetzwerken zu sehen, wie das Spiel voran war.
Im Gegensatz zu früheren Methoden, die versucht haben, berechnen Sie die Vorteile von allen möglichen bewegen per brute-Force, das Programm hält nur die Bewegungen, die wahrscheinlichste zu gewinnen, die Forscher sagten, das ist ein Ansatz, die gute menschliche Spieler verwenden.
"Unsere Suche sieht voraus durch das Spiel viele Male über in seiner Phantasie" Studie Co-Autor David Silver, Informatiker am Google DeepMind, die geholfen haben, AlphaGo, bauen, sagte bei der Pressekonferenz. "Das macht AlphaGo suchen viel mehr menschenähnliche als bisherige Ansätze."
Totale menschliche Niederlage
Lernen von den Menschen scheint eine Gewinnstrategie.
AlphaGo vernichtend geschlagen rivalisierenden AI-Systeme etwa 99,8 Prozent der Zeit, und besiegte den amtierenden europäischen gehen Champion Fan Hui, in einem Turnier gewann alle fünf Spiele. Gegen andere AI-Systeme können das Programm auf einem normalen Desktop-Computer ausführen, obwohl für das Turnier gegen Hui, das Team AlphaGos Rechenleistung, mit etwa 1.200 Prozessoren (CPUs), die die rechnerische Arbeit aufteilen aufgepeppt.
Und AlphaGo mit Menschen ist noch nicht beendet. Es hat seinen Anblick auf Lee Sedol, der weltweit besten Go-Spieler gesetzt und ein Face-off soll in ein paar Monaten.
"Sie ihn als Roger Federer der Welt gehen können", meint Hassabis.
Viele in der Welt unterwegs waren fassungslos durch die Niederlage – und noch Hoffnung für die Sterblichen, der im März gegen AlphaGo konfrontiert sein wird.
"AlphaGo der Stärke ist wirklich beeindruckend! Ich genug war überrascht als ich hörte Fan Hui verloren, aber es fühlt sich mehr wirklich zu die Spielständen zu sehen,"sagte Hajin Lee, der Generalsekretär der internationalen gehen Bund in einer Erklärung. "Mein Gesamteindruck war, dass AlphaGo stärker als Fan schien, aber ich nicht, um wie viel sagen konnte. Ich bezweifle immer noch, dass es stark genug, um der weltweit Top-Profis zu spielen, aber vielleicht es stärker, wird wenn es einen stärkeren Gegner gegenübersteht."
Folgen Sie Tia Ghose auf Twitter und Google + . Folgen Sie Leben-Wissenschaft @livescience , Facebook & Google + .