Dieses neuronale Netz umwerfend schlechte Bildbeschreibungen sind noch AI fortgeschritten.
Wann wird ein neuronales Netz, wer ist Donald Trump? Wie lange, bis man einen Witz auf eigene einfallen lassen? Erkennen, wie etwa Yoda?
Es kann nicht sein viel länger, mit neuronale Netzwerkmodelle in rasantem Tempo voran. Aber es gibt noch ein langer Weg zu gehen, wie ein Experiment von Samim Winiger zeigt, die in der Regel nur Samim, selbsternannte "Narrative Engineer", die Experimente mit AI und maschinelles lernen vergeht, Geschichten zu erzählen.
Samim fragte kürzlich ein neuronales Netz, eine Reihe von pop-Kultur-Videos und Clips aus Filmen, illustrieren die große Varianz in wie genau diese Algorithmen sind Bildunterschrift – produzieren einige unglaublichen dummen und lustige Maschine geschrieben Beschreibungen von Kanye West, Luke Skywalker und auch großen Hund.
Diesen Sommer wir viel über maschinelles lernen schon haben: wir sah Nervennetze träumen, sich unterhalten mit überraschender Leichtigkeit, kopieren Sie die Arbeit von berühmten Künstlern. Dank einer wachsenden Gemeinschaft von Menschen, testen und veröffentlichen ihre Experimente online auf Plattformen wie GitXiv gibt es auch viele Beispiele dafür, wie fortschrittlich diese Algorithmen bereits sind.
Aber Samim war nicht nur versuchen zu zeigen, wie gute neuronale Netzwerke erkennen Bilder; Er wollte zeigen, ihre größte Schraube ups zu. Samim interessieren sich für Humor – er nennt es "computational Komödie." Es ist die Art von Komödie, die auftritt, wenn AI Fehler macht, aber Samim weist darauf hin, es können auch helfen, Menschen verstehen, AI. Früher in diesem Jahr baute er einen Roboter, der eigene unergründlichen TED-Vorträge über den Eingang von Tausenden von realen Gesprächen schreiben gelernt. Er baute auch eine, die ebenso unsinnige Obama reden schreibt.
"Humor und Komik eine große Leinwand für Bildung", sagte er mir per e-Mail. "Vor allem als eine des Systems"in der Nähe von Miss"ist eine großartige Möglichkeit, Forschungsziele, derzeitigen Fortschritte und gesellschaftlichen Implikationen von Technologie anzeigen."
Sein neueste Projekt rechnerische Komödie tauchte auf seinem Blog letzte Woche. Es richtete er ein Experiment, das getestet, wie gut neuronale Netze Videos aus der Popkultur Bildunterschrift könnte. Er verwendet ein open-Source-Modell wurde von Google entwickelt und Stanford genannt NeuralTalk, blickt auf ein Bild und beschreibt es mit eine kurze Bildunterschrift.
Das ist ein komplexer Problem als unser natürlich ausführlichen Gehirn denkt – das Netzwerk in natürlicher Sprache nicht nur zu erkennen, was in einem Bild ist, sondern beschreiben eine Beziehung zwischen mehreren Elementen einer Szene mit strukturierten Sätzen trainiert werden.
Es ist die Spitze des maschinellen Lernens, und während es faszinierend und bereits sehr weit fortgeschritten ist, es hat auch einen langen Weg zu gehen, wie Samim in seinem Beitrag über das Projekt anmerkt. Er produzierte zwei untertitelte video-Montagen zeigte die Erfolgsgeschichten, wo NeuralTalk überraschend gut alles von Vögel wie Vögel, Snowboarder Snowboarder auf Donald Trump als Person (fraglich), als auch die weniger erfolgreichen Beschriftungen korrekt zu identifizieren.
Zum Beispiel, Luke Skywalker, Yoda sprechen? NeuralTalk beschriftet, dass berühmte Szene thusly:
Erkennt er seine Kollegen Maschine, großer Hund? Nein.
Oder nur ein Vogel? Sicherlich ist ein Vogel einfach?
OK, wie wäre eine erschreckend und legendäre Szene aus Jurassic Park?
Natürlich gibt es viele Beispiele wo NeuralTalk eine Szene korrekt beschriftet. Aber die Absurdität der falsche Bildunterschriften ist hier wirklich wichtig –, dass das Netzwerk kann manchmal so richtig sein, doch so, ein andermal falsch gibt uns einen Einblick in die komplexe Mathematik hinter diesem aufstrebenden Form von AI. Neuronale Netzwerkmodelle müssen "lernen", Objekten und Kategorien in Bildern zu erkennen – so wie tiefen Traum bestimmte Arten von Halluzinationen vorgestellt, basierend auf was Google Ingenieure es gelehrt hatte, sind andere neuronale Netze nur Experten, wenn sie zu diesem Thema bei der hand geschult worden habe.
Rechnerische Komödie ist nicht nur darum, uns Schmunzeln auf die Tücken der AI. Es geht auch um eine Form von Intelligenz, die von den Forschern oft ignoriert wird. Während viele Wissenschaftler ihre Arbeit gegen standard-Metriken zu tun mit dem erkennen von Zahlen oder Wörter zu testen werden, setzt sich das subtile Verständnis von Witzen, Kreativität und kulturelle Bezüge auf einer anderen Ebene.
Also ist den Turing-Test ein bisschen eine simple Weise Richter AI, wie Samim es ausdrückt. "Humor ist eine viel härtere Metrik zu erreichen – grundlegend menschliche und unsere kognitiven Fähigkeiten auf vielen Ebenen," sagt er. So seine Law of Computational Comedy eine entscheidende Ergänzung macht: "jede hinreichend fortschrittliche Technologie entwickeln Komödie." In der Zwischenzeit machen unsere eigenen auf seine Kosten wir.
Kontaktieren Sie den Autor unter [email protected].