- RU
- EN
Якоб Нильсен: Человеческое тело как замена тачскрина. Часть 1: Рука как устройство ввода
Когда вы касаетесь собственного тела, вы точно чувствуете, что именно вы трогаете — а это дает лучший фидбек, чем любое внешнее устройство. Кроме того, вы никогда не забываете взять свое тело с собой.
Сегодня многие новые пользовательские интерфейсы отходят от плоских компьютерных экранов как от места взаимодействия с пользователем. Например, Microsoft Kinect превращает целую комнату в интерактивное пространство, где движения тела пользователя становятся системными командами. А системы дополненной реальности (например, некоторые приложения Google Glass) проецируют результаты своей работы на объекты реального мира — например, считывают температуру, чтобы помечать цветом части двигателей самолетов, чтобы механикам было легче их увидеть и отремонтировать.
На недавней конференции CHI 2013 в Париже я был особенно впечатлен двумя идеями, использующими человеческое тело как компонент, интегрированный в пользовательский интерфейс. Тело пользователя уникально в одном ключевом аспекте: вы чувствуете, когда ваше тело трогают.
Рука как устройство ввода
Sean Gustafson, Bernhard Rabe и Patrick Baudisch из Hasso Plattner Institute (Германия) разработали так называемый воображаемый интерфейс, который находится на ладони пользователя. Этот UI "воображаем" в том смысле, что на самом деле, кроме голой руки, перед вами ничего нет. Фото показывает, как воображаемый "мобильный телефон" помещается в левой руке пользователя. Вы касаетесь разных точек, включаете определенные функции телефона и слышите голосовые уведомления.
Чтобы эта система на самом деле работала, юзер должен слышать компьютер - например, используя гарнитуру. Еще важнее, чтобы компьютер знал, какую часть ладони трогает пользователь. В прототипе Густафсона это было сделано с помощью оптического датчика движения.
Новый тактильный телефон будет отличным девайсом для незрячих и слабовидящих, а также пригодится в тех случаях, когда люди не могут посмотреть на телефон.