Steuern Sie Ihr Telefon mit Ihren Augen – Tech

Soul Hackers 2 Erscheinungsdatum Ankuendigungstrailer enthuellt

Eye-Tracking ist seit langem einer dieser heiligen Grale der Computer. Ob es um Barrierefreiheit geht, neue Formfaktoren eröffnet werden oder einfach nur versucht wird, der Art und Weise, wie wir mit unseren Geräten interagieren, eine neue Wendung zu geben, Jahrzehnte der Unterhaltungselektronik sind übersät mit Versuchen, die Gaze zu verwenden, um eine neue Form der Eingabe freizuschalten.

Das Denken hinter der Carnegie Melon University ist mickrig benannt AugeMU (Ich nehme an, „ICU“ ist ein bisschen intensiv) ist einfach. Handys sind heutzutage groß. Wenn Sie jemals versucht haben, ein modernes Flaggschiff mit einer Hand zu bedienen, kennen Sie die inhärenten Schmerzpunkte. Wenn Sie Glück haben, können Sie vielleicht mit dem Daumen auf ein Symbol tippen, während Sie mit der anderen Hand einen Kaffee trinken.

Während die meisten früheren Versuche fehlgeschlagen sind, verfügen aktuelle Telefone über eine Vielzahl verschiedener Technologien, die dazu beitragen könnten, diese Funktionalität auf natürliche Weise freizuschalten. Ich erinnere mich, dass ich vor Jahren einige Fernsehgeräte mit Eye-Tracking ausprobiert habe und die gleiche Art von Frustration verspürte, die einem begegnet, wenn man versucht, das 3D-Bild auf einem dieser Magic Eye-Poster zu sehen. Eine Kombination aus guter, härterer Frontkamera, Googles Face Mesh und den richtigen Algorithmen könnte jedoch dazu beitragen, sowohl auf die Absicht des Benutzers zu reagieren als auch vorherzusagen.

„Die großen Technologieunternehmen wie Google und Apple sind der Blickvorhersage ziemlich nahe gekommen, aber nur auf etwas zu starren, bringt Sie nicht dorthin“, sagt Associate Professor Chris Harrison in einer Pressemitteilung. „Die eigentliche Innovation in diesem Projekt ist die Hinzufügung von eine zweite Modalität, wie das Streichen des Telefons nach links oder rechts, kombiniert mit Blickvorhersage. Das macht es mächtig. Im Nachhinein erscheint es so offensichtlich, aber es ist eine clevere Idee, die EyeMU viel intuitiver macht.“

Der andere Schlüssel hier, denke ich, besteht darin, nicht zu versuchen, alles nur mit den Augen zu tun. Traditionellerer Input ist erforderlich, aber das Video zeigt, wie Forscher viel erledigen können, wenn sie sich auf eine Kombination aus Gaze und Gesten verlassen. Nehmen Sie eine Foto-App. Beim Betrachten eines Bildes wird es ausgewählt. Wenn Sie es näher an das Gesicht heranziehen, wird vergrößert, und wenn Sie das Telefon nach links oder rechts bewegen, werden Filter angewendet. Am spannendsten ist hier, wie viel davon mit vorhandener Hardware als Ergänzung zur Berührungs- und Spracheingabe möglich ist.

tch-1-tech