Взаимодействовать со смартфоном или другим мобильным устройством сегодня приходится путем непосредственных прикосновений к корпусу — сенсорному экрану или кнопкам. Но, как оказалось, близится тот знаменательный день, когда такое «общение» со своими гаджетами можно будет осуществлять при помощи движений, которые привычны каждому в реальной жизни.
В настоящее время представители Университета Линнеус заявили о работе над созданием революционного интерфейса нового поколения, который поможет сделать цифровой мир более приближенным к реальности с позиции человеческих ощущений.
Благодаря сенсорному дисплею пользоваться устройствами стало намного проще, но с разработкой таких гаджетов, как шлем виртуальной реальности или, к примеру, смарт-часы, пользователи стали ощущать ограниченность и недостаточность возможностей существующих сегодня двумерных интерфейсов. Каждому, наверное, хотелось, чтобы действия можно было выполнять, просто проводя рукой над своим гаджетом или вокруг последнего. Взаимодействие с устройствами в реальном времени посредством привычных жестов, которые являются трехмерными, представляется более естественным и удобным. Создание интерфейса, который претворил бы эти мечтания в реальность, и является целью проекта «Real-Time 3D Gesture Analysis for Natural Interaction with Smart Devices».
По словам менеджера проекта Шахроз Юсефи, при работе с таким интерфейсом, помимо высокого уровня реалистичности ощущений, пользователь сможет не только посмотреть на объект или приблизить его, но также взять, повернуть, перевернуть и так далее.
Что касается применения этой разработки, то она не ограничивается одними только трехмерными игрушками. Предполагается, что интерфейс будет активно использоваться в медицине (в особенности хирургия и диагностика), робототехнике, обучающих технологиях, дополненной и виртуальной реальности.
Разумеется, система, которая способна проводить анализ движений пальцев и рук пользователя в реальном времени, должна отличаться своей мощностью и быть высокоинтеллектуальной. Поэтому разработчикам еще предстоит придумать и реализовать на практике новые подходы к процессу анализа огромных объемов данных, касающихся жестов и движений человека. Также потребуется проанализировать технологии распознавания и «компьютерного зрения» с целью их интеграции с разработанными решениями.