Голосовое и безголосовое управление
Несколько соображений в кучу.
Когда Эплы начали в понедельник говорить, мол, иногда вам хочется обратиться к Сири, но неудобно говорить вслух, я подумал, что она наконец-то научилась читать по губам — но нет, нужно печатать на клавиатуре. Дурдом! Дело тут не только в том, чтобы обращаться к телефону беззвучно; иногда, наоборот, вокруг слишком шумно, например когда пишешь кому-нибудь из ночного клуба.
Вообще, я жду чтения по губам с тех пор, как появилось фейс-айди с объёмными датчиками для лица. Оно ж ещё умеет понимать, смотришь ты на него или нет. С тех же пор я жду, что подмигивание станет жестом для чего-нибудь там. Недавно же ещё анонсировали, что Ай-ОС начнёт поддерживать айтрекинг для управления в стиле Вижена-про. Короче, хочется, чтобы это в итоге собралось в одну систему.
То, что в Эйрподах можно будет помотать головой в смысле «да» или «нет» — это забавно, но это будет работать только в ответ на вопросы Сири, которые я ей всё равно не разрешаю мне задавать.
Ну и кстати, даже если голосовое управление станет не просто безупречно разбирать слова, но и понимать весь контекст, знать тебя как человека во всех деталях, оно всё равно полностью не заменит клавиатуру и мышь. Это легко понять, просто представив близкого друга или родственника, сидящего за компьютером вместо тебя: понимает с полуслова, но всё равно быстрее самому, чем смотреть, как он делает всё не то!
Настоящее решение — научиться читать мысли, а не разбирать слова.