Смекни!
smekni.com

Применение Байесовых сетей (стр. 3 из 6)

Общее свойство (условной) независимости переменных — узлов в бай­есовой сети получило название d-разделения (d-separation).

Определение d-разделимости

Две переменные A и B в байесовой сети являются d-разделенными, если на каждом пути, соединяющем эти две вершины на графе, найдется промежуточная переменная V, такая что:

1. соединение с V последовательное или дивергентное и значение V известно, либо

2. соединение конвергентное и нет свидетельств ни о значении V, ни о каждом из ее потомков.

Так, в сети задачи Шерлока Холмса (рис. 1) переменные «Полив?» и «Трава у дома Ватсона?» являются d-разделенными. Граф содержит на пути между этими переменными конвергентное соединение с переменной «Трава у до­ма Холмса?».



(a)



(b)


(c)

Рисунок 2 Три типа отношений между переменными

(a) Последовательное соединение. Влияние информации может распростра­няться от A к C и обратно, пока значение B не конкретизировано. (b) Дивер­гентное соединение. Влияние может распространяться между потомками узла A, пока его значение не конкретизировано. (c) Конвергентное соединение. Если об A ничего не известно, кроме того, что может быть выведено из информации о его предках B,C,... ,E, то эти переменные предки являются разделенными. При уточнении A открывается канал взаимного влияния между его предками.

Свойство d-разделимости соответствует особенностям логики экспер­та-человека, поэтому крайне желательно, чтобы в рассуждениях машин относительно двух d-разделенных переменных новая информация об од­ной из них не изменяла степень детерминированности второй переменной. Формально, для переменных A и C, независимых при условии B, имеет место соотношение P(A | B) = P(A | B, C).

Отметим, что интуитивное восприятие условной зависимости и неза­висимости иногда, даже в простых случаях, оказывается затрудненным, так как сложно из всех исходов событий мысленно выделить только те события, в которых значение обусловливающей переменной определено, и далее в рассуждения оперировать только ими.

Вот простой пример, поясняющий эту трудность: в некотором сообще­стве мужчины среднего возраста и молодые женщины оказались матери­ально более обеспеченными, чем остальные люди. Тогда при условии фик­сированного повышенного уровня обеспеченности пол и возраст человека оказываются условно зависимыми друг от друга!

Еще один классический пример, связанный с особенностями условных вероятностей. Рассмотрим некоторый колледж, охотно принимающий на обучение сообразительных и спортивных молодых людей (и тех, кто обла­дает обоими замечательными качествами!). Разумно считать, что среди всех молодых людей студенческого возраста спортивные и интеллектуальные показатели независимы. Теперь если вернуться к множеству зачисленных в колледж, то легко видеть, что высокая сообразительность эффективно понижает вероятность спортивности и наоборот, так как каждого из этих свойств по-отдельности достаточно для приема в колледж. Таким образом, спортивность и умственные показатели оказались зависимыми при условии обучения в колледже.

Использование Байесовых сетей.

Вероятности прогнозируемых значений отдельных переменных

На практике нам необходимы распределения интересующих нас пере­менных, взятые по отдельности. Они могут быть получены из соотношения для полной вероятности при помощи маргинализации — суммирования по реализациям всех переменных, кроме, выбранных.

Приведем пример точных вычислений в простой байесовой сети, мо­делирующей задачу Шерлока Холмса. Обозначения и смысл пе­ременных в сети : R —был ли дождь, S — включена ли поливальная установка, C — влажная ли трава у дома Холмса, и W — влажная ли трава у дома Ватсона.

Все четыре переменные принимают булевы значения 0 — ложь, (f) или 1 — истина (t). Совместная вероятность P(R, S, C, W), таким образом, да­ется совокупной таблицей из 16 чисел. Таблица вероятностей нормирована, так что

Зная совместное распределение, легко найти любые интересующие нас условные и частичные распределения. Например, вероятность того, что ночью не было дождя при условии, что трава у дома Ватсона — влажная, дается простым вычислением:

Из теоремы об умножении вероятностей полная вероятность пред­ставляется цепочкой условных вероятностей:

P(R, S, C, W) = P(R) * P(S | R) * P(C |R,S)*P(W | R, S, C).

В описанной ранее байесовой сети ориентированные ребра графа отража­ют суть вероятностей, которые реально имеют место в задаче. Поэтому формула для полной вероятности существенно упрощает­ся:

P(R, S, C, W) = P(R) *P(S) * P(C |R,S)*P(W | R).

Порядок следования переменных в соотношении для полной вероятности, вообще говоря, может быть любым. Однако на практике целесообразно выбирать такой порядок, при котором условные вероятности максимально редуцируются. Это происходит, если начинать с переменных-«причин», постепенно переходя к «следствиям». При этом полезно представлять себе некоторую «историю», согласно которой причины влияют на следствия.

Пример построения простейшей байесовской сети доверия.

Рассматриваем небольшую яблочную плантацию «яблочного Джека». Однажды Джек обнаружил, что его прекрасное яблочное дерево лишилось листвы. Теперь он хочет выяснить, почему это случилось. Он знает, что листва часто опадает, если:

дерево засыхает в результате недостатка влаги; или дерево болеет.

Данная ситуация может быть смоделирована байесовской сетью доверия, содержащей 3 вершины: «Болеет», «Засохло» и «Облетело».

Рис.1. Пример байесовской сети доверия с тремя событиями.

В данном простейшем случае рассмотрим ситуацию, при которой каждая вершина может принимать всего лишь два возможных состояний и, как следствие находится в одном из них, а именно:

Вершина (событие) БСД Состояние 1 Состояние 2
“Болеет” «болеет» «нет»
“Засохло” «засохло» «нет»
“Облетело” «да» «нет»

Вершина “Болеет” говорит о том, что дерево заболело, будучи в состоянии «болеет», в противном случае она находится в состоянии «нет». Аналогично для других двух вершин. Рассматриваемая байесовская сеть доверия, моделирует тот факт, что имеется причинно-следственная зависимость от события “Болеет” к событию “Облетело” и от события “Засохло” к событию “Облетело”. Это отображено стрелками на байесовской сети доверия.

Когда есть причинно-следственная зависимость от вершины А к другой вершине B, то мы ожидаем, что когда A находится в некотором определённом состоянии, это оказывает влияние на состояние B. Следует быть внимательным, когда моделируется зависимость в байесовских сетях доверия. Иногда совсем не очевидно, какое направление должна иметь стрелка.

Например, в рассматриваемом примере, мы говорим, что имеется зависимость от “Болеет” к “Облетело”, так как когда дерево болеет, это может вызывать опадание его листвы. Опадание листвы является следствием болезни, а не болезнь – следствием опадания листвы.

На приведенном выше рисунке дано графическое представление байесовской сети доверия. Однако, это только качественное представление байесовской сети доверия. Перед тем, как назвать это полностью байесовской сетью доверия необходимо определить количественное представление, то есть множество таблиц условных вероятностей:

Априорная вероятность p(“Болеет”) Априорная вероятность p(“Засохло”)
Болеет = «болеет» Болеет = «нет» Засохло = «засохло» Засохло = «нет»
0,1 0,9 0,1 0,9
Таблица условных вероятностей p(“Облетело” | ”Болеет”, ”Засохло”)
Засохло = «засохло» Засохло = «нет»
Болеет = «болеет» Болеет = «нет» Болеет = «болеет» Болеет = «нет»
Облетело = «да» 0,95 0,85 0,90 0,02
Облетело = «нет» 0,05 0,15 0,10 0,98

Приведенные таблицы иллюстрируют ТУВ для трёх вершин байесовской сети доверия. Заметим, что все три таблицы показывают вероятность пребывания некоторой вершины в определённом состоянии, обусловленным состоянием её родительских вершин. Но так как вершины Болеет и Засохло не имеют родительских вершин, то их вероятности являются маргинальными, т.е. не зависят (не обусловлены) ни от чего.

На данном примере мы рассмотрели, что и как описывается очень простой байесовской сетью доверия. Современные программные средства (такие как MSBN, Hugin и др.) обеспечивают инструментарий для построения таких сетей, а также возможность использования байесовских сетей доверия для введения новых свидетельств и получения решения (вывода) за счёт пересчёта новых вероятностей во всех вершинах, соответствующих вновь введенным свидетельствам.