Tragbare Sensoren konnte Gebärdensprache ins Englische zu übersetzen
Tragbare Sensoren könnten eines Tages interpretieren die Gesten in Gebärdensprache und übersetzen sie ins Englische, eine Hightech-Lösung für Probleme bei der Kommunikation zwischen gehörlosen und diejenigen, die Gebärdensprache nicht verstehen.
Ingenieure der Universität Texas A & M entwickeln ein tragbares Gerät, das Bewegung und die Muskelaktivität in jemandes Armen spürt.
Das Gerät funktioniert, indem Sie herausfinden, die Gesten eine Person ist, indem zwei verschiedene Sensoren: eine, die reagiert auf die Bewegung des Handgelenkes und der andere auf die muskulären Bewegungen in den Arm. Ein Programm dann drahtlos erhält diese Information und wandelt die Daten in der englischen Übersetzung. [Top 10 Erfindungen, die die Welt veränderten]
Nach einigen anfänglichen Recherchen fanden die Ingenieure, dass gab es Geräte, die Gebärdensprache in Text zu übersetzen versucht, aber sie waren nicht so kompliziert in ihren Entwürfen.
"Die meisten der Technologie... stützte sich auf Vision oder Kamera-basierte Lösungen," sagte Studie leitende Forscher Roozbeh Jafari, Associate Professor of Biomedical Engineering an der Texas A & M.
Diese bestehenden Designs Jafari sagte, sind nicht ausreichend, weil oft, wenn jemand mit Gebärdensprache spricht, sie mit Handgesten, kombiniert mit speziellen Fingerbewegungen.
"Ich dachte vielleicht, wir suchen sollten, in Kombination von Bewegungssensoren und Muskelaktivierung," sagte Jafari Leben Wissenschaft. "Und hier die Idee war, ein tragbares Gerät zu bauen."
Die Forscher gebaut ein Prototyp des Systems, die Wörter zu erkennen, die Menschen in ihren täglichen Gesprächen am häufigsten verwenden. Jafari, sagte, dass sobald das Team beginnt die Erweiterung des Programms, die Ingenieure mehr Wörter enthalten werden, die weniger häufig verwendet werden, um eine umfangreichere Vokabular aufzubauen.
Ein Nachteil des Prototyps ist, dass das System "trainiert" werden, um auf jeden einzelnen eingehen, die das Gerät trägt, sagte Jafari. Diese Ausbildung umfasst Fragen der Benutzer im wesentlichen wiederholen oder führen Sie jede Geste der hand ein paar Mal, die bis zu 30 Minuten in Anspruch nehmen können.
"Wenn ich es trage und du es trägst — unsere Körper sind anders... unsere Muskelstrukturen sind anders," sagte Jafari.
Aber Jafari denkt, dass das Problem weitgehend aus zeitlichen Gründen ist das Team beim Aufbau des Prototyps konfrontiert. Es dauerte zwei Doktoranden nur zwei Wochen, um das Gerät zu bauen, also Jafari sagte, dass er überzeugt ist, dass das Gerät in den nächsten Schritten der Entwicklung fortschrittlicher geworden.
Die Forscher planen die Trainingszeit des Gerätes reduzieren oder sogar beseitigt es insgesamt, so dass das tragbare Gerät automatisch auf den Benutzer reagiert. Jafari will auch die Wirksamkeit der Sensoren des Systems zu verbessern, so dass das Gerät mehr in realen Gesprächen nützlich sein wird. Derzeit kann wenn eine Person Gesten in Gebärdensprache, das Gerät nur Worte zu einem Zeitpunkt gelesen.
Dies ist jedoch nicht wie die Leute sprechen. "Wenn wir sprechen, wir alle Wörter in einem Satz setzen", sagte Jafari. "Der Übergang von einem Wort mit einem anderen Wort ist nahtlos und es ist tatsächlich sofort."
"Wir müssen Signalverarbeitung Techniken zu bauen, die uns helfen würde, erkennen und verstehen eines kompletten Satzes," fügte er hinzu.
Jafari die ultimative Vision ist es, neue Technologien, wie z. B. tragbare Sensor verwenden, um innovative Benutzeroberflächen zwischen Mensch und Computer zu entwickeln.
Zum Beispiel Menschen fühlen sich schon wohl bei der Verwendung von Tastaturen elektronische Geräte Befehle erteilen, aber Jafari denkt, tippen auf Geräten wie Smartwatches nicht praktikabel ist, weil sie neigen dazu, kleine Bildschirme haben.
"Wir müssen eine neue Benutzeroberfläche (UI) und eine UI-Modalität, die Kommunikation mit diesen Geräten hilft," sagte er. "Geräte wie [der tragbare Sensor] könnte uns zu helfen. Es wäre im Wesentlichen der richtige Schritt in die richtige Richtung."
Jafari präsentiert diese Forschung am Institute of Electrical und Electronics Engineers (IEEE) 12th Annual Körper Sensor Networks Conference im Juni.
Folgen Sie Live Science @livescience , Facebook & Google + .