RealSense: Wie wird Intel die ganze Welt in ein Holodeck verwandeln
Displays, die Ihre Stimmung lesen können. Chips, die in unserem Gehirn implantiert. Mehr als nur tragbare Technologie; Technologie, die in allem ist, die wir tragen. Fast malerisch in einer Science-Fiction-Novelle. Aber in Intels Real-Life Vision? Spannend. Und RealSense ist was los ist, um uns dorthin zu gelangen.
RealSense ist keine bestimmte Technologie, aber eher Intels Namen für die Gruppe von Hard- und Software Fortschritte in der perzeptuellen computing, die uns auf diesen Minority Report Zukunft erhalten werden. Und die erste aus dem Tor? Eine 3D-Kamera, mit dem Sie interagieren mit Ihren Geräten in einer Weise, die Sie nur gedacht, war möglich in Filmen.
Die Möglichkeiten, in Intels Vision sind so nah an keine Grenzen gesetzt, wie Sie sich vorstellen können. Es werden in der Lage zu erfassen und teilen Sie Bilder, sicher aber auch mitteilen, welche Stimmung Sie in auf Mimik und Körperhaltung basieren. Es werden in der Lage, unter Ihre natürliche Sprache Befehle im Gegensatz zu gestelzt Siri-tsch stehen, die wir heute benutzen. Aber der eigentliche Trick ist, dass es mehr davon bereits, als Sie möglich denken vielleicht tun kann.
Unter funktionellen Kameratricks gehören unter 3D Bilder (wie oben gesehen), aber auch, fast noch wichtiger ist verstehen Tiefe gut genug, um Objekte zu unterscheiden. Das heißt, die einfachste Verwendung, indem verschiedene Effekte in Vorder- und Hintergrund. Aber es werden auch majorly Auswirkungen auf die Art und Weise, wie wir mit unseren Computern, Tablets und Handys.
Um zu helfen, die Zukunft zu erhalten, die es sieht, arbeitet Intel mit 3DSystems, ein Unternehmen gut durchdrungen von 3D-Druck Technologie. Es ist eine natürliche Partnerschaft – eines, das Intel etwas ausführlicher heute Abend sprechen, wird da der logische nächste Schritt 3D Schnittstellen sie in die physische Welt bringen.
Skype ist auch Zeit für die Fahrt, obwohl weniger eindrucksvoll; Sie können ein Gesicht zu isolieren und ändern Sie den Hintergrund, was du willst. Es ist ein green-Screen-Effekt, aber weit entfernt von nahtlosen. Aber hey, Punkte für Potenzial!
Gestensteuerung gab aber einen besseren Eindruck; einfach kneifen und schnappen Sie sich Bewegungen, Wellen und schiebt. Es ist glatt, vor allem für eine Demo, und setzen diese Art von Kontrolle in einer oben montierte Kamera ist eine viel praktischere Lösung als die seitlich angebrachten Leap Motion.
Es ist auch nicht beschränkt auf Desktop- oder Hände. Die Kamera kann verfolgen, Ihr Gesicht zu navigieren Google Street View, nach Ihren Augen und Kopf, um herauszufinden, wo Sie suchen möchten.
Auch bei einem Auftritt: Dragon Naturally Speaking, die offenbar verfeinert worden, aber hatte noch ein paar Problemchen während einer Demonstration.
Eine Spiel, die Ihre Hand in eine buchstäbliche Hand Gottes macht schien auch nicht ganz bereit für die Prime Time. Flipper und ein Sci-Fi-Flugsimulator – sowohl ohne Maus oder Joystick – beide erging es etwas besser. Aber dann erinnern Sie sich:, dass sogar eine Janky Version davon überhaupt existiert ist etwas, das schwer vorstellbar, vor ein paar Jahren gewesen wäre.
Und was für Kinder? Es gibt viel für Kinder! Gestenbasierte animierte Spiele, Tiefe wahrzunehmen Umgebungen, für Kleinkinder und Tykes alles zugänglich. Was Sinn macht; mit der Zeit sie Erwachsene sind, wird dies der Standardmodus der Interaktion sein.
Die Zukunft ist auch albern; ein Entwickler zeigte eine Geste-basierten Musik-app, die nicht viel Zweck müssen anders als dumme perkussiven Spielzeit zu sein scheinen. Die, nebenbei bemerkt, tatsächlich eine ganze Menge Spaß aussieht.
Die größere Punkt, unabhängig davon, wie gut es in der Praxis in einer Demo funktioniert ist klar; Es gibt Stücke der nächsten Generation Anblick, Ton und Touch-Interaktion im Ort. Es bringt sie zusammen, dass der schwierige Teil sein werde.