Смекни!
smekni.com

В настоящее время при компьютерном и математическом модели­ровании для описания неопределенностей все чаще используют такой метод, как энтропия. Некоторые виды неопределенностей связаны с безразличными к организации силами — природными (погодные условия) или обще­ственными (смена правительства).

Разнооб­разные формальные методы оценки рисков и управления ими во многих случаях (реально во всех нетривиальных ситуациях) не мо­гут дать однозначных рекомендаций. В конце процесса принятия решения — всегда человек, менеджер, на котором лежит ответст­венность за принятое решение.

Поэтому процедуры энтропии естественно при­менять не только на конечном, но и на всех остальных этапах анали­за рассматриваемого организацией проекта, используя при этом весь арсенал теории и практики энтропии.

Рассмотрим использования энтропии на примере прогноза погоды.

Пусть для некоторого пункта вероят­ность того, что 15 июня будет идти дождь, равна 0,4, а вероятность того, что дождя не будет, равна 0,6. Пусть далее для этого же пункта вероятность дождя 15 октября равна 0,8, а вероятность отсутствия дождя в этот день — всего 0,2. Предположим, что определенный метод прогноза погоды 15 июня оказывается правильным в 3/5 всех тех слу­чаев, в которых предсказывается дождь, и в 4/5 тех случаев, в которых предсказывается отсутствие осадков; в приме­нении же к погоде 15 октября этот метод оказывается правильным в 9/10 тех случаев, в которых предсказывается дождь, и в половине случаев, в которых предсказывается отсутствие дождя (сравнительно большой процент оши­бок в последнем случае естественно объясняется тем, что предсказывается маловероятное событие, предугадать ко­торое довольно трудно). Спрашивается, в какой из двух указанных дней прогноз дает нам больше информации о ре­альной погоде?

Обозначим через β1 и β2 опыты, состоящие в определе­нии погоды в рассматриваемом пункте 15 июня и 15 октяб­ря. Мы считаем, что эти опыты имеют всего по два исхода — В (дождь) и

(отсутствие осадков); соответствующие таблицы вероятностей имеют вид:

Опыт β1

исходы В
вероятн. 0,4 0,6

Опыт β2

исходы В
вероятн. 0,8 0,2

Следовательно, энтропии опытов β1 и β2 равны

Н (β1 ) = -0,4 log 0,4 — 0,6 log 0,6

0,97 бита,

Н (β2) = - 0,8 log 0,8 - 0,2 log 0,2

0,72 бита.

Пусть теперь α1 и α2 — предсказания погоды на 15 июня и на 15 октября. Опыты α1 и α2 также имеют по два исхода: А (предсказание дождя) и

(предсказание сухой погоды); при этом пары опытов (α1, β1) и (α22) ха­рактеризуются следующими таблицами условных вероят­ностей:

Пара (α1, β1)

0,6 0,4 0,2 0,8

Пара (α22)

0,9 0,1 0,5 0,5

(

). Эти таблицы позволяют определить также и неизвестные нам вероятности р1(А) и р1(
),р2(А) и р2(
) исходов А и
опытов α1 и α2. По формуле полной ве­роятности имеем для опыта β1

0,4=р(В)= р1(А)

+ р1(
)
=0,6· р1(А) +0,2· р1(
)

и для опыта β2

0,8 = р (В)= р2(А)

+ р2(
)
=0,9· р2(А)+0,5· р2(
).

Так как р1(

)= 1 — р1(А), р2(
)= 1 — р2(А), то от­сюда получаем

р1(А)= р1(

)= 0,5, р2(А) = 0,75, р2(
) = 0,25.

Подсчитаем теперь энтропии НА1),

(в битах):

НА1)= -0,6• log 0,6 - 0,4 • log 0,4

0,97,

= - 0,2• log 0,2 – 0,8• log0,8
0,72

и

= - 0,9 • log 0,9 - 0,1• log 0,1
0,47,

= - 0,5 • log 0,5 - 0,5• log 0,5= 1.

Следовательно,

р1(А) НА1)+ р1(
)
0,84,

р2(А)
+ р2(
)
0,60.

Таким образом, информация, содержа­щаяся в прогнозе погоды на 15 июня (опыт α1) о реальной погоде в этот день (об опыте β2), равна

I (α1, β1) = Н(β1) -

0,97 -0,84 = 0,13 бит,

что несколько больше, чем информация о реальной погоде 15 октября (об опыте β2), содержащаяся в прогнозе погоды на этот день (в опыте α2):

I (α2, β2) = Н(β2) -

0,72 — 0,60 = 0,12 бит.

Этот результат позволяет считать прогноз погоды па 15 нюня более ценным, чем прогноз на 15 октября, не­смотря на то, что последний прогноз чаще оказы­вается правильным: действительно, в силу формулы полной вероятности, для прогноза погоды на 15 нюня вероятность оказаться правильным равна

р1(А)

+ р1(
)
= 0,5• 0,6 + 0,5• 0,8 = 0,7,

в то время как для прогноза погоды на 15 октября эта ве­роятность равна

р2(А)

+ р2(
)
= 0,75 • 0,9 + 0,25 • 0,5 = 0,8.