Google sagt, dass Machine Learning ist die Zukunft. Also versuchte ich es mir selbst
Wenn Tiefe lernen so groß wie das Internet, ist es Zeit für alle zu Beginn der Suche eng es
Die Welt wird leise durch maschinelles Lernen neu geformt wird. Wir müssen nicht mehr Computer beibringen, wie man komplexe Aufgaben wie Bild Anerkennung oder Text Übersetzung: Stattdessen bauen wir Systeme, mit denen sie lernen, wie man es selbst tun können.
"Es ist keine Magie,", sagt Greg Corrado, senior Research Scientist bei Google. "Es ist nur ein Werkzeug. Aber es ist ein sehr wichtiges Instrument."
Die stärkste Form des maschinellen Lernens heute, genannt "tief lernen", baut eine komplexe mathematische Struktur namens ein neuronales Netzes auf Unmengen von Daten basieren. So konzipiert, dass ähnlich wie ein menschliches Gehirn funktioniert, wurden neuronale Netze selbst erstmals in den 1930er Jahren beschrieben. Aber es ist erst in den letzten drei oder vier Jahren, die sich Computer leistungsfähig genug, um sie effektiv zu nutzen.
Corrado sagt, dass er denkt, dass es so groß eine Änderung für Tech ist wie im Internet. "Vor der Internet-Technologien, wenn Sie in der Informatik gearbeitet war Vernetzung einige seltsame Sache, die verrückten Tat." Und jetzt jeder versteht, unabhängig davon, ob sie Ingenieur oder ein Software-Entwickler oder ein Produkt-Designer ein CEO wie Internet-Konnektivität ihres Produktes Formen, prägt den Markt, was sie möglicherweise aufbauen konnten."
Er sagt, dass dieselbe Art von Transformation wird mit Machine Learning passieren. "Es endet als etwas, das jeder etwas tun kann. Sie müssen nicht die detaillierte Dinge zu tun, aber sie müssen verstehen, "Nun, warten eine Minute, vielleicht können wir dies tun könnten, wenn wir Daten zu lernen hatte." "
Googles eigene Umsetzung der Idee, ein Open-Source-Software-Suite namens TensorFlow, wurde aus dem Boden aufgebaut nutzbar durch beide die Forscher des Unternehmens versucht, die leistungsstarke Modelle zu verstehen, die sie sowie die Ingenieure, die bereits aufnehmen, ihnen erstellen, Abfüllung, die und verwenden sie, um Fotos zu kategorisieren oder lassen die Menschen mit ihrer Stimme zu suchen sein.
Machine Learning ist immer noch ein komplexes Tier. Abseits vereinfachte Spielplätze gibt es nicht viel, was Sie mit neuronalen Netzen selbst tun können, wenn Sie einen starken Hintergrund in der Kodierung haben. Aber ich wollte Conrados Ansprüche auf die Probe gestellt: Wenn maschinelles lernen etwas in der Zukunft wird sein "jeder kann etwas tun", wie nah ist es, die heute?
Eines der schönen Dinge über die Machine-Learning-Community ist jetzt offensteht, Austausch von Ideen und Forschung. Wenn Google TensorFlow für jedermann zugänglich gemacht, es schrieb: "Durch den Austausch von, was wir glauben, eines der besten Machine learning-Werkzeugkästen in der Welt, wir hoffen, einen offenen Standard für den Austausch von Ideen und putting Machine Learning in Produkte zu schaffen". Und es ist nicht allein in diesem: jede große Maschine lernen Umsetzung steht kostenlos zu nutzen und zu verändern, was bedeutet, es ist möglich, eine einfache Maschinenintelligenz mit nichts weiter als ein Laptop und eine Internetverbindung einzurichten.
Das ist, was ich getan habe.
Nach der Leitung des Schriftstellers und Technologe Robin Sloan trainiert habe ich ein einfaches neuronales Netz auf 119mb Guardian Leader Spalten. Es war nicht einfach. Auch mit einer ausführlichen Readme brauchte ich ein paar Stunden richten ein Computer bis zu dem Punkt wo es lernen aus dem Korpus des Textes beginnen konnte. Und sobald es so weit, ich merkte ich hatte erheblich unterschätzt, die Menge an Zeit, die für eine Maschine zu lernen. Nach dem Ausführen der Trainingssoftware für 30 Minuten, und Fortbewegung 1 % des Weges durch, ich merkte ich bräuchte einen viel schnelleren Rechner.
Schließlich bekam dieses laufen: bissig in-Editor "AutoVervollständigen" powered by eines neuronalen Netzes trainiert auf alten Science-Fiction-Geschichten. pic.twitter.com/Cu4GCZdUEl
So verbrachte ich noch ein paar Stunden konfigurieren eines Servers auf Amazons Cloud das Lernen für mich zu tun. Es kostete $.70 eine Stunde, aber dazu geführt, dass die ganze Sache in ca. 8 Stunden fertig war.
Ich bin nicht der einzige mit der Technologie zu spielen. Leise, seit ein paar Jahren vor, Google selbst hat eine Metamorphose durchgemacht. Die Suche Riese hat den Mut einiger seiner größten Leistungen von Bildersuche, Spracherkennung, herausgerissen und neu erstellt ihnen von Grund auf. Nun will es den Rest der Welt zu folgen.
Am 16. Juni bekannt, dass es eine engagierte Gruppe von Machine Learning in seiner Zürcher Ingenieurbüro, die größte Sammlung von Google-Entwickler außerhalb der USA, Forschung in drei Bereichen führen Öffnung war: Maschine Intelligenz, Natural Language Processing und maschineller Wahrnehmung. Das heißt, kann Gebäudetechnik, die denken, hören und sehen.
Aber während Informatiker genug darüber, wie weiß Sie hadern neuronale Netze zu verwenden, um Rede zu identifizieren oder psychedelische Bilder zu erstellen, sie wissen nicht wirklich, alles gibt es zu wissen, wie sie eigentlich funktionieren. Sie irgendwie nur... zu tun. Bestandteil der Arbeit von Google DeepMind, die Forschung Arm führte am berühmtesten einen Algorithmus zum Sieg über Weltmeister in die alte asiatische Brettspiel Go, ist ein bisschen mehr darüber, warum und wie sie so gut sind trainieren. Und die neue Maschine Lerngruppe gebietsübergreifenden ist die Grenze zwischen Forschung und Entwicklung, Versuch, neue Algorithmen zu erstellen, die noch nie dagewesenen Herausforderungen bewältigen kann.
Meinem eigenen Versuch, das gleiche zu tun gehen nicht so gut. Die Ergebnisse waren... nicht perfekt. Googles Maschinenvorführungen lernen beinhalten, Lösung von Problemen, die als "praktisch unmöglich" vor zwei Jahren beschrieben wurden, könnte mir kaum einen Satz aneinanderreihen.
Sloans Beispiel folgend richtete ich mein Modell als AutoVervollständigen Motor laufen. Ich konnte den ersten Halbsatz von einem theoretischen Guardian Editorial schreiben, und das System wird als Input gefüttert und gefragt, was es denkt als nächstes kommen werden. Mag das nicht? Eine andere Antwort fordern.
Ich habe versucht, es zu benutzen, um Guardian Editorials aus einem Paralleluniversum zu lesen. Ich diente "der Abstimmung am Donnerstag bedeutsamen in der EU bleiben" als Samen, und versucht, das System, sich vorzustellen, wie der Rest des Satzes aussehen würde:
- Der Abstimmung am Donnerstag bedeutsamen bleiben in der EU wurde mehr Verträge in den 1970er Jahren.
- Der Abstimmung am Donnerstag bedeutsame, in der EU zu bleiben war ein Mann von einer legalen Opposition im Jahr 2015.
- Der Abstimmung am Donnerstag bedeutsamen bleiben in der EU war die Diskriminierung und die erste Möglichkeit das Scheitern, die Regierung zu erklären ist keine einheitliche Verfassung konservative Politik.
- Der Abstimmung am Donnerstag bedeutsame, in der EU zu bleiben war das Versprechen der Verlautbarungen.
Es ist schrecklich. Natürlich ist es schrecklich: Wenn ich eine Maschine trainieren konnte zu einem überzeugenden Guardian Editorial schreiben oder sogar ein überzeugende Satz Auszug aus einem Vormund Editorial, in zwei Tagen durch eine Readme-Datei kopieren und Hantieren mit komplexer Software, die ich nicht wirklich verstehe auch nach erfolgreich genutzt haben, dann meinen Job viel unsicherer wäre, als es ist. Hölle, wäre jedermanns Arbeitsplätze viel weniger sicher, als sie sind.
Ich bin nicht einmal die ersten, die an dieser Hürde fallen: des Atlantiks Adrienne LaFrance versucht ein ähnliches Experiment auch mit Sloans Kit, früher im Juni, aber wurde durch die Größe ihrer Corpus behindert. Eine halbe million Wörter, die Gesamtmenge an ihr Schreiben vom Atlantik, nicht genug für eine Maschine zu lernen, aber die 20m sitzen in der Guardian Archiv der Leitartikel ist besser. (Ich hätte das System auf jede Geschichte im Archiv laufen, aber es besser lernt, wenn es gibt ein einheitlicher Ton und Stil zu emulieren – etwas Führer Spalten, die alle in der Stimme des Papiers stammen, haben).
Während die Ergebnisse zur gleichen Zeit auf den ersten Blick, unscheinbar sind, jedoch sind sie... irgendwie erstaunlich. Das spezielle Paket ich verwendet habe, genannt Fackel-Rnn, ist für die Ausbildung von Charakter-Level neuronale Netze ausgelegt. Das heißt, bevor es ausgebildet ist, es nicht einmal kennen das Konzept eines Wortes, geschweige denn ein spezifisches Vokabular oder Verständnis der englischen Grammatik.
Jetzt habe ich ein Modell, das all diese Dinge weiß. Und es selbst mit nichts weiter als eine große Menge von Guardian Leitartikel gelehrt.
Es kann nicht Sinn noch tatsächlich schaffen. Das macht Sinn: eine Guardian-Redaktion hat Bedeutung in Bezug auf die reale Welt nicht als eine Sammlung von Wörtern bestehenden aus eigenem Recht. Und so richtig trainieren ein neuronales Netzes, zu schreiben, musst du auch Informationen über die Welt zu ernähren, und dann haben Sie weniger von einem Wochenend-Projekt und von einem Startup-Pitch.
So verwundert es nicht, die Anzahl der Start-Plätze zu sehen, die "deep Learning" Rakete beinhalten. Mein Posteingang hat durchweg gesehen ein oder zwei pro Tag für das vergangene Jahr, von einem "Online-personal Styling Service" die Tiefe lernen verwendet entsprechend Menschen, Kleidung, eine "Entdeckung Wissensmaschine" soll Google an seinem eigenen Spiel zu schlagen.
Wo die archetypische Start 2008 war "x" aber auf einem Handy"und die Inbetriebnahme von 2014 war" Uber aber für X ", in diesem Jahr ist das Jahr der" tun x mit Machine Learning ". Und Google scheint glücklich, wegweisend sein, nicht nur mit eigenen Produkten, sondern auch die Werkzeuge, die der Rest des Ökosystems abhängig ist.
Aber warum gerade jetzt? Corrado hat eine Antwort. "Die Mathematik für deep Learning erfolgte in den 1980er und 1990er Jahren... aber bis jetzt waren die Computer zu langsam für uns zu verstehen, dass die Mathematik gut funktioniert.
"Die Tatsache, dass sie schneller bekommen und billiger Teil ist von was dies möglich macht." Gerade jetzt, sagt er, maschinelles lernen sich selbst zu tun ist wie der Versuch, online zu gehen, durch einen TCP/IP Stack manuell codieren.
Aber das ist nicht zu ändern. Es wird schneller, einfacher und effektiver, und langsam bewegen von etwas, das die Ingenieure wissen, etwas das gesamte Entwicklerteam, dann die gesamte Tech-Industrie kennen, und dann schließlich jeder. Und wenn es funktioniert, es wird eine Menge anderes zu ändern.
• AlphaGo selbst beigebracht, zu gewinnen, aber ohne den Menschen würde es aus der Zeit laufen haben