Смекни!
smekni.com

Предисловие редактора перевода (стр. 37 из 67)

Например, в случае модели Куиллиана необходимо объяснить, каким образом ОСПЯ приобретает новую информацию, т. е. истолковывает лингвистические входы (что существенно для приобретения новой информации), и отвечает на вопросы. Самый важный процесс, используемый с этой целью, называется "поиском по пересечению". Допустим, что ОСПЯ пытается понять следующее предложение, подаваемое на вход: "Волк может укусить". В этом предложении названы некоторые понятия ("волк" и "укусить"). Процесс поиска одновременно входит в ячейки ДП для каждого из названных понятий, а затем следует по стрелкам, т. е. отходящим от этих ячеек путям. Всякий раз, когда какая-та стрелка приводит к новому понятию, это понятие получает метку, которая означает, что процесс поиска прошел через данный пункт, и указывает, от какого понятия он сюда пришел. Возможно, что в какой-то момент один из путей поиска приведет к понятию, которое уже было помечено (т. е. поиск уже приводил к нему раньше). Эта точка представляет собой пересечение. Если найдено пересечение, это значит, что данной точки можно достигнуть, ведя поиск от двух разных понятий, и, следовательно, эти два понятия как-то связаны между собой. Проверив, имеется ли в данной точке метка и пройдя в обратном направлении путь, приведший к пересечению, можно установить, какие именно понятия пересекаются и как они связаны между собой. Если связь между понятиями в ДП совместима с их отношением во входном предложении, то можно сказать, что данное предложение понято.

Поиск по пересечению в модели ОСПЯ иллюстрирует рис. 8.3. На нем изображена часть сетевой структуры ДП (несколько более четко, чем на рис. 8.1, с указанием всех элементов и свойств), содержащая понятия о некоторых животных и их свойствах. Допустим, что мы ввели в ОСПЯ предложение "Канарейка есть рыба". Процесс поиска начнется в точках, соответствующих элементам "канарейка" и "рыба". На пути от "канарейки" будут помечены понятия "птица", "петь" и "желтый"; на пути от "рыбы" — понятия "плавники", "плавать" и "животное". Наконец, когда поиск, идущий от понятия "канарейка", достигнет понятия "животное", там будет обнаружена метка с указанием на стрелку, ведущую сюда от понятия "рыба". Пройдя в обратном направлении пути, .приведшие к "животному", можно выяснить отношение между понятиями "рыба" и "канарейка". Оно несовместимо с их отношением в высказывании, которое утверждает, что "канарейка есть рыба". Если бы, однако, это высказывание гласило, что "канарейка родственна рыбе", то оно подтвердилось бы. Сходным образом результаты поиска могли бы подтвердить, что "канарейка имеет кожу" (был бы найден путь от "канарейки" к "птице", от "птицы" к "животному" и от "животного" к "коже"), или привести к выводу, что "канарейка может летать" ("канарейка есть птица", а "птица может летать").

В модели АПЧ процесс, соответствующий поиск) по пересечению !B ОСПЯ, называется процессом "сопоставления". Он изображен на рис. 8.4. Этот процесс имеет своей целью связывать входную информацию с памятью, в результате чего модель получает возможность интерпретировать эту информацию. Сначала система АПЧ пытается закодировать входную информацию (например, какое-либо предложение), представив ее в виде дерева, — процесс кодирования, называемый "разбором" входного сообщения. Затем она сопоставляет терминальные — самые нижние — узлы схемы с соответствующими ячейками в ДП. (Если во входном сообщении окажется незнакомое слово, оно не сможет быть сопоставлено с определенной ячейкой ДП; тогда в ДП образуется новый узел, представляющий в ней это слово, и начинается сбор информации об этом узле: каково правописание этого слова, с какими словами оно ассоциируется в предложении и каким образом.) Затем делается попытка найти в ДП дерево, сходное с входным деревом. Такой поиск начинается от каждой ячейки ДП, соответствующей одному из слов входного предложения; это .поиск в сети ДП путей, соединяющих терминальные узлы таким же образом, как они соединены во входном сообщении. Иными словами, требуется найти такое дерево ДП, которое соединяло бы те же понятия и таким же образом, как и во входном сообщении. Когда такое дерево найдено, это значит, что соответствие между входным сообщением и сетью ДП установлено и предложение понято.

Тот же процесс может быть использован при входных сообщениях многих различных типов, например при вопросах. Получив вопрос "Кто ударил Билла?", система произведет грамматический разбор вопроса и построит входное дерево, в котором местоимение "кто" будет рассматриваться как пропуск, подлежащий заполнению. Она будет пытаться установить соответствие между остальными частями дерева и информацией, имеющейся в памяти. Если в памяти найдутся сведения о том, что "Билла ударил Джон", система сможет заполнить пропуск и дать ответ на вопрос. (Этот пример несколько тривиален, но описанный метод можно распространить на более сложные случаи ответов на вопросы.) Другая важная особенность метода сопоставления в модели АПЧ состоит в том, что его можно распространить на нелингвистические входы, например "зрительные" (сцены). Некоторые процессы в системе АПЧ предназначены для разбора или описания таких входов путем построения деревьев, позволяющих выяснять, что это за входы. С данным входом можно сопоставить имеющиеся в памяти описания, в результате чего система получает возможность распознать предъявленную картину. Короче говоря, процесс сопоставления выполняет много функций, так как это основной механизм, который позволяет связывать текущий опыт с приобретенными ранее знаниями об окружающем мире и играет тем самым главную роль в кодировании информации и в ее извлечении.

ДАННЫЕ О СЕМАНТИЧЕСКОЙ ПАМЯТИ

Теперь, когда мы ознакомились с одним типом моделей ДП (а именно с сетевыми моделями), уместно будет рассмотреть кое-какие данные, для объяснения которых эти модели были созданы. В настоящей главе мы рассмотрим данные относительно семантической памяти (эпизодической памяти мы коснемся в последующих главах). Мы сможем оценить объяснительную силу ООПЯ, АПЧ и других моделей, когда увидим, в какой мере они позволяют понять известные факты.

Как правило, при изучении семантической памяти имеют дело с "неэпизодической" информацией, т. е. знаниями, существующими независимо от времени или места их приобретения. Одним из лучших примеров такого рода информации служат определения слов. Почти каждому известно, что "канарейка — птица" и что "все алмазы — камни". Не удивительно поэтому, что определения слов использовались во многих экспериментах по семантической памяти. Оддн из самых обычных методов, применяемых в таких экспериментах, это задача на проверку истинности утверждения. Испытуемому предъявляют некоторое утверждение и предлагают решить, истинно оно или ложно; например: КАНАРЕЙКА — ПТИЦА1 (истинно) или КАНАРЕЙКА — РЫБА (ложно). Как и следовало ожидать, испытуемые выполняют такого рода задания с очень небольшим числом ошибок. Зависимая переменная в таких заданиях-это время реакции (ВР), определяемое обычно как интервал между предъявлением утверждения и ответом испытуемого.

1Строго говоря, следовало бы писать "канарейка есть некоторая птица", но в данном контексте, где обсуждается вопрос о механизме понимания обычной речи, мы будем переводить подобные утверждения упрощенной формой, свойственной обычному языку. — Прим. ред.

ЭФФЕКТ ВЕЛИЧИНЫ КЛАССА

Из всех явлений семантической памяти, вероятно, наибольшее внимание исследователей привлекает так называемый эффект величины класса. В типичном случае для изучения этого эффекта используется задача на проверку истинности утверждения, имеющего вид

(Некоторое подлежащее) (S) есть (Некоторое сказуемое) (Р).

Независимой переменной служит величина класса сказуемого Р. Под величиной класса имеется в виду число входящих в него членов. Часто невозможно бывает точно указать число членов, входящих в данный класс (но иногда это число совершенно очевидно, например в случае класса "времена года", в который входит четыре члена). Тем не менее всегда есть возможность определить относительную величину класса, т. е. сказать, что один класс больше другого. Обычно об этом можно говорить в тех случаях, когда один класс входит в другой; тогда, конечно, второй должен быть больше первого. Например, класс "птицы" входит в класс "животные"; следовательно, к классу "животные" относятся все "птицы" плюс что-нибудь еще, так что он должен быть больше. Основной результат, к которому привели эксперименты по проверке истинности утверждений, состоит в том, что ВР, необходимое для ответа "истинно", возрастает с увеличением объема класса Р. Например, проверка утверждения "канарейка-животное" занимает больше времени, чем проверка утверждения "канарейка-птица" (см., например, Collins a. Quillian, 1969; Meyer, 1970). ВР для ложных утверждений также обычно возрастает с увеличением класса Р (см., например, Landauer a. Freedman, 1968; Meyer, 1970).

Эффект величины класса чрезвычайно важен для построения модели семантической памяти. Суть его сводится к тому, что время, необходимое для проверки принадлежности данного объекта (скажем, канарейки) к данному классу ("птицы"), зависит от величины этого класса. А это в свою очередь говорит кое-что о природе семантической ДП, так что любая разумная модель должна объяснять эффект величины класса. В случае модели Куиллиана нетрудно дать ему довольно правдоподобное объяснение. В этой модели предполагается, что данный объект связан с непосредственно стоящим над ним высшим классом одной стрелкой; этот высший класс связан со стоящим над ним, и так далее. Такова внутренняя структура ДП в данной модели. Для того чтобы проверить истинность утверждения "канарейка — птица", надо пройти только по одной стрелке, а чтобы добраться до более удаленного из высших классов, надо уже пройти по двум таким стрелкам (см. рис. 8.3). Поскольку прохождение по стрелке занимает определенное время, путь, соответствующий двум стрелкам, потребует больше времени. В результате мы и получим эффект величины класса: чем выше положение данного класса Р в иерархии, тем большее число стрелок нужно пройти и тем больше это занимает времени.