Новое применение сенсору Kinect, предназначенному для игровой приставки Xbox 360, нашли аспиранты Алексей Забайкин и Евгений Булушев.
На его основе молодые ученые из Института вычислительных технологий СО РАН и Института автоматики и электрометрии СО РАН создают устройство, которое за счёт обработки и анализа 3D данных сканирования окружающего пространства позволит осуществлять локальную навигацию роботов, а также слабовидящих людей.
- Создание алгоритмов сенсора для нас не столько хобби, сколько научный интерес. Мы бы хотели заниматься этим профессионально, но пока нет возможности. В Академгородке практически никто такие задачи не решает, — объясняет Евгений.
В общем виде устройство для слабовидящих будет выглядеть так: 3D видеосенсор типа Kinect, ноутбук или планшет для обработки данных, аккумулятор и специальные средства взаимодействия с пользователем (аудио-наушник).
- Наиболее важную информацию — например, о ближайших препятствиях — планируется передавать тактильно, через кожу или даже язык, — рассказывает Алексей Забайкин.
- Обычные видеокамеры, получающие двухмерное изображение, не позволяют решать таких задач. С помощью 2D сложно определить расстояние до объекта, - объясняет Евгений Булушев
Недостаток Kinect в том, что он "видит" на расстоянии максимум 8 метров, то есть, по сути, подходит только для использования в помещениях.
В 2013 году со своей разработкой ребята выиграли грант мэрии Новосибирска, на который был приобретен сенсор Kinect и ещё несколько необходимых вещей. Для того чтобы развивать её дальше, нужно привлечь дополнительные средства.