Смекни!
smekni.com

Разговор с машиной: мифы и реалии речевого управления (стр. 2 из 3)

Необходимо обеспечить возможность априорной и оперативной (как минимум) или адаптивной (как максимум) настройки речевого интерфейса под конкретного пользователя.

В первом случае до начала или в процессе управления человек сам указывает машине то, как она должна вести себя в процессе общения с ним, например, быть молчаливым исполнителем команд, активным полемистом или бюрократом, который в ответ на каждую команду запрашивает подтверждение на ее выполнение.

Во втором случае машина сама должна подстраиваться под человека, анализируя его психофизиологическое состояние и уровень профессиональной подготовки.

Человек легко прощает себе собственные ошибки управления, но не склонен прощать аналогичные ошибки машине, как впрочем и другим людям… Потеря доверия человека к речевому каналу управления вследствие частых ошибок машины или ее в принципе правильного, но неудобного для человека поведения, на практике приводит к отказу от использования данного канала. Поэтому необходима высоко надежная и простая процедура сертификации человеком реализуемых с помощью речевого канала управленческих решений.

Человек может забыть известную и произнести неизвестную (не содержащуюся в словаре) команду;

Человек может забыть логику работы управляемой им технической системы и произнести недоступную для выполнения в данный момент времени, но априорно известную для машины команду;

Человек не всегда рационален и, тем более, не всегда оптимален в своих решениях (произносимых речевых командах). В необходимых случаях желательна возможность автоматического формирования машиной подсказки для человека, о том какие команды в текущий момент времени являются доступными, а какие из доступных команд рациональными для сложившейся ситуации управления сложной технической системой. В то же время, машина не должна иметь возможность блокировать волеизъявление человека, выраженное посредством доступной, но не рациональной по ее мнению, речевой команды.

Машина может принимать различные правильные решения по распознаванию. Число возможных вариантов при ранее принятом допущении о фиксированном наборе речевых команд конечно:

“человеком произнесена неизвестная команда --> неизвестная команда правильно распознана машиной”;

“ человеком произнесена известная доступная команда --> известная доступная команда правильно распознана машиной ”;

“ человеком произнесена неизвестная недоступная команда --> неизвестная недоступная команда правильно распознана машиной ”.

Машина по своей вине или по вине оператора может допускать ошибки распознавания 6-ти типов. Число вариантов также конечно.

“Неизвестная команда --> известная недоступная команда” - (оператор ошибся, машина не смогла распознать ошибку);

“Неизвестная команда --> известная доступная команда ” - (оператор ошибся, машина не смогла распознать ошибку);

“Известная доступная команда ---> неизвестная команда ” (ошиблась машина);

“Известная недоступная команда --> неизвестная команда ” - (оператор ошибся, машина не смогла распознать ошибку);

“Известная доступная команда --> известная недоступная команда ” (ошиблась машина);

“Известная доступная команда --> известная доступная команда распознана неправильно ” (ошиблась машина).

Поясним изложенные положения и определим возможные направления их практического учета и применения.

Деление известных команд на доступные и недоступные должно осуществляться, исходя из располагаемого конечного множества режимов работы управляемой технической системы, которые, как правило, закладываются уже на этапе ее создания. (Речь идет об использовании ранее упомянутого принципа конечного числа реакций машины на бесконечное множество ситуаций внешнего мира.)

Для простоты восприятия читателем, режим в данном случае, если угодно, - это совокупность нажатых кнопок управления, а доступная известная команда это очередная кнопка (одна из нескольких возможных), которая может быть “нажата голосом” оператора.

Например, на многих моделях автомобилей нельзя включить “мигалку” указателя поворота при вынутом ключе зажигания, но в той же ситуации можно подать звуковой сигнал. В данном иллюстративном примере “вынутый ключ зажигания” - это режим, “мигалка” - это недоступная известная команда, “гудок” - это доступная известная команда для данного режима.

В наиболее общем случае режим – это не только совокупность нажатых кнопок управления, но и совокупность значимых для процесса управления событий, наступление которых машина способна самостоятельно идентифицировать без участия человека.

Например, пусть обзорная система ледокола “Титаник-II” способна самостоятельно фиксировать факты обнаружения появляющихся в зоне обзора айсбергов, нумеровать их и переходить к непрерывному сопровождению наиболее опасных при получении команды от капитана судна. В данном примере наступление значимого события - “обнаружение айсберга” без непосредственного участия человека инициирует возможность использования нового режима – “сопровождение айсберга”. Для данного режима характерна известная машине, но ранее недоступная для выполнения (айсбергов раньше просто не было видно!) речевая команда капитана – “следи за наиболее опасным айсбергом №3”.

Необходимо отметить, что априорное деление известных речевых команд на доступные и недоступные с использованием содержания понятия “режим” позволяет сократить множество альтернатив и тем самым повысить надежность распознавания. Альтернативы (доступные команды) сравниваются в рамках режимов, в которых они выполнимы. Затем на “межрежимном” уровне сравниваются “альтернативы – победительницы”. Результат распознавания – альтернатива победительница для межрежимного уровня.

В условиях стрессовой нагрузки или вследствие слабой подготовки (и такое, оказывается, случается, как пишут в газетах!) оператор может произнести неизвестную для системы команду, например, выругаться в сердцах “по матушке”. В данном случае машина должна самостоятельно, в соответствии с используемыми критериями (например, пороговыми или иными, в зависимости от используемого алгоритма распознавания) идентифицировать команду как неизвестную. Чтобы поведение машины (произносимые ей ответные слова и выполняемые действия) выглядело дружелюбным и “интеллектуальным” возможны следующие основные (перечень возможных реакций машины здесь и далее ограничивается лишь уровнем естественного интеллекта разработчика “софта”, располагаемыми вычислительными ресурсами и прагматической целесообразностью) варианты ее реакции:

промолчать и ничего не делать;

сообщить человеку о возможной ошибке и попросить повторить команду;

предложить помощь, произнося доступные в данном режиме команды.

Вариант реакции можно, например, задать заранее при проектировании системы речевого управления в зависимости от априорной важности того или иного режима в процессе управления “интеллектуальной” машиной. Реализация такого подхода, естественно требует анализа профессиональной деятельности оператора, учета циклограммы его работы в процессе управления технической системой и детального знания режимов ее работы.

Более сложный, но и более “интеллектуальный” вариант - оперативная оценка психофизиологического состояния оператора и использование специализированной экспертной системы - помощника, формирующей апостериорную (de facto) подсказку в реальном масштабе времени с учетом “человеческого фактора” и результатов наблюдений с помощью датчиков информации за изменяющимися условиями внешнего мира. Проектируя подобную экспертную систему, необходимо помнить, что далеко не все доступные речевые команды оптимальны или, по крайней мере, рациональны для конкретной ситуации управления. Более того, выполнение некоторых из них при негативном развитии событий, в принципе, может привести к печальным или трагическим (вспомните Чернобыль!) последствиям.

Здесь, однако, уместно замечание по поводу невозможности блокирования выполнения машиной доступных речевых команд. Современный уровень развития систем искусственного интеллекта и, в частности, экспертных систем в настоящее время таков, что пока не позволяет эффективно решать гуманитарные проблемы и проблемы связанные с порождением новых знаний непосредственно в процессе управления сложной технической системы. Например, сегодня машину сложно научить находить разницу между потерей инстинкта самосохранения и осознанным самопожертвованием в действиях пилота боевого самолета, или отличие непрофессионализма от нетривиального (не содержащегося в инструкции для данной ситуации), но спасительного для сотен людей управленческого решения оператора крупного железнодорожного узла.

Поэтому представляется, что система речевого управления правильно и надежно интерпретирующая волю человека посредством выполнения доступных речевых команд и в необходимых случаях формирующая для него “толковые” подсказки может считаться вполне “интеллектуальной”. При этом ответственность за последствия нерациональной деятельности дилетанта за рычагами управления или перед “ушами” системы речевого управления должен нести он сам или люди, которые его туда допустили, а никак не конструктор “интеллектуальной машины”…

В случае, когда распознанная команда идентифицируется как известная доступная, возможны следующие основные варианты реакции машины:

выполнить команду;

выполнить команду и информировать оператора голосом, или как-то иначе, о ее выполнении;

запросить подтверждение команды у оператора и не выполнять команду до получения подтверждения;

проинформировать оператора о нерациональности его действий, возможных негативных их последствиях и оптимальной с точки зрения машины команде.