Wie Googles schlanker AI Offline Spracherkennung bewegen konnte
Googles künstliche Intelligenz wird immer schnell (und beunruhigend?) besser als seine jüngsten Slam-Dunk eines Menschen gehen Champion unter Beweis gestellt. Sieg rechnerisch hocheffiziente AI anstatt nur rohe Gewalt erforderlich, könnte etwas, was Google meint es offline Spracherkennung bewegen helfen.
Die Spracherkennung sind wir alle verwendeten, Siri und Google jetzt stützt sich stark auf Cloud computing zu entziffern und Sinn des Menschen. Es ist notwendig, da die Verarbeitung Leistung und Speicher Banken erforderlich Weg außerhalb der Grenzen der meisten Smartphones sind.
In einem jüngst veröffentlichten Papier skizziert ein Team von Google-Techniker wie sie Tiefe Machine learning Techniken verwendet, um eine leichte Spracherkennungs-Programm auf einem Smartphone laufen. Das Papier ist dicht, aber der Kern ist Diktat und Sprachbefehle, die Arbeit mit einem 13,5 Prozent Fehlerquote (im Vergleich zu den ~ 8 Prozent der Google Cloud-basierten System), alles läuft nativ auf Nexus 5 mit einem 2,2 GHz Prozessor und 2GB RAM.
Die Vorteile liegen auf der Hand: Wenn Spracherkennung benötigt eine Internetverbindung immer auf, zu arbeiten, es macht Gebäude in Sachen billiger, Energie-effizienter und schneller (keine Notwendigkeit, all das Senden von Daten an einen Server und wieder zurück). Jetzt, ob Sie wollen Ihren Kühlschrank mit dir reden, ist eine ganz eigene Sache.