E-mail рассылка

Сегодня
Вчера
22.11.2017
28.02.2017, 17:43 385

Microsoft совместно с учеными разработали новую продвинутую технологию ввода текста глазами 

Специалисты Microsoft при участии исследователей из Университета Вашингтона разработали и удобную, а главное – недорогую технологию, позволяющую вводить текст взглядом. Новая система должна помочь людям, лишенным способности двигаться, например страдающим боковым амиотрофическим склерозом.

Представленная программа Eye-gaze работает на обычных мобильных устройствах, отслеживая положение глаз при помощи камеры.

Специальное оборудование, позволяющее парализованным «печатать» глазами, существовало, разумеется, и раньше. Обычно оно работает так: сидящий перед камерой человек сперва переводит взгляд в сторону одной из нескольких групп букв, а после, уже другим движением глаз, выбирает нужную букву в группе - и так с каждым символом. Для отслеживания взгляда в таких системах используются инфракрасные сенсоры, которые плохо справляются со своей задачей при ярком свете. Кроме того, стоимость подобных комплектов оборудования обычно составлять от $5 до 10 тысяч.

Новая же программа сканирует и захватывает изображение глаз при помощи технологии распознавания изображения, созданной Microsoft, после чего сопоставляет каждое движение глаз с соответствующими командами. Благодаря отказу от инфракрасных датчиков, Eye-gaze отлично работает при любом освещении.

Упростить процесс набора разработчикам удалось за счет предиктивного механизма ввода (известного как T9), знакомому каждому, кто пользовался телефоном с кнопками. Групп букв в Eye-gaze всего четыре, и пользователю достаточно просто выбрать группу, но не конкретную букву в ней. Для того чтобы отменить выбор, нужно моргнуть левым глазом, а для подтверждения слова – правым. Кроме того, ассистенту, держащему в руках смартфон, виден список подсказок, благодаря чему тот может помогать вводить слова, выбирая подходящие по контексту варианты.

Разработка Eye-gaze будет представлена на конференции социально значимых технологических проектов CHI 2017.

Информация предоставлена по материалам 4pda

Комментарии