Wie Real-Life AI Rivalen "Kamerad": Roboter kommen emotionale
Künstliche Intelligenz wird Hollywood im Jahr 2015 mit einer Reihe von ikonischen und neue Roboter auf dem Bildschirm (intelligent) herrschen. Aus der Turing-"Ex Machina" alte Freunde R2-D2 und C-3PO und neue Feinde wie die Avengers Ultron bashing zeigen fühlende Roboter auf dem Bildschirm eine Reihe von menschlichen und übermenschlichen Eigenschaften. Realen Roboter können jedoch gerade so spannend. In diesem fünfteiligen Serie schaut Live Science Maschinenintelligenz diese Fortschritte für die Filme gemacht.
In dem Film "Kerlchen", veröffentlicht am 6. März wird der titular Roboter das erste Droid, Emotion, Chaos säen und initiieren einen Kampf ums eigene Überleben zu erleben. Obwohl populäre Vorstellungen lange Roboter als gefühllose Wesen abgebildet haben, kalt wie das Metall in ihre Schaltungen Chappies emotionalen Erwachen hat sowohl Sci-Fi-Vorrang (siehe 1986 die "Short Circuit", zum Beispiel) und Real-Life-Analoga.
Außerhalb von Hollywood arbeiten Ingenieure, um emotionale und künstliche Intelligenz mehr in vollem Umfang zu integrieren. Bereich "affective computing" soll im großen und ganzen AI-Systeme mit Gefühlen zu schaffen. Hierzu müsste die Maschinen erreichen eine oder mehrere Säulen der der "affektiven Schleife:" erkennen, Emotion, Emotion im Kontext zu verstehen und express Emotion natürlich, Joseph Grafsgaard, ein Forscher an der North Carolina State University, sagte Live Science.
Grafsgaard eigenen Labor produziert letztes Jahr eine automatisierte Tutor-System, die SchülerInnen Emotionen zu erkennen und entsprechend reagieren kann. Das Team zur verschiedene Sensoren und Gesichts-Erkennung Monitoren Messung der Signale wie wie nah ein Student ist der Bildschirm und die Bewegung der Gesichtsmuskeln, die offenbart, wenn der Student eine Emotion wie Langeweile zeigte. Die Forscher dann diese Daten in ihre Ki-System, ausgestattet mit den gleichen Sensoren eingespeist. [Super-intelligenten Maschinen: 7 Roboter Futures]
"Ich verwende in meinem Ansatz, nonverbale Signale" um Emotionen zu identifizieren, sagte Grafsgaard. "Das ist, was Psychologen gemacht haben am nächsten."
Trotzdem, "sind die Systeme jetzt speziell." Diese adaptive Systeme noch nicht sind,"sagte er. Das ist, weil beispielsweise eine zerfurchte Stirn hat eine andere Bedeutung in einer Nachhilfe Sitzung als wenn jemand ein Stück des Marketings angezeigt wird.
Auch ein Computer in der Lage, alle drei Säulen konnte nicht gesagt werden "fühlen", sagte Grafsgaard, da die Technologie nicht gerade jetzt lassen diese Bots erkennen sich selbst als "selbst." "Unter aktuelle Techniken, gibt es kein Bewusstsein," sagte er. "Die Techniken beinhalten ein"selbst"Modell nicht."
Andere sagen allerdings, Arbeit an Emotion in AI wird unweigerlich zum Gefühl Maschinen. Berühmte Zukunftsforscher Ray Kurzweil, die fühlende Maschinen bis 2029 prognostiziert, verleiht emotionale Intelligenz einen wichtigen Platz in dieser Entwicklung. Wenn Roboter natürlicher Sprache verstehen, sagte Kurtzweil Wired, bewusste angesehen werden kann.
"Und das bedeutet nicht nur logische Intelligenz", sagte er. "Es bedeutet emotionalen Intelligenz, komisch, immer des Witzes, sexy, als liebevolle, menschlichen Emotionen zu verstehen."
Schauen Sie sich den Rest dieser Serie: wie Real-Life AI Rivalen "Ultron": Computer lernen zu lernen, wie Real-Life AI Rivalen "Ex Machina": Passing Turing, wie Real-Life AI Rivalen 'Terminator': Roboter übernehmen den Schuss und wie Real-Life AI Rivalen "Star Wars": A Universalübersetzer?
Folgen Sie uns @livescience , Facebook & Google + .