Смекни!
smekni.com

Автоматизированные Системы Обработки Информации (стр. 10 из 13)

s(x,z) = -----------,

|| x|| || z||

представляющую собой косинус угла, образованного векторами X и Z. Этой мерой целесообразно пользоваться, когда кластеры располагаются вдоль главных осей или растянуты вдоль лучей, направленных от начала координат.


Однако использование данной меры связано с определенными ограничениями: достаточное отстояние кластеров друг от друга и от начала координат.

Для двоичных признаков (признаки принимают значения либо `` 0`` либо ``1``) может использоваться мера Танимото

zx/

s(x,z) = ------------------- .

x/x + z/ z - x/z

Перечисленные меры близости не учитывают корреляционные связи между признаками. Устранить этот недостаток позволяет критерий известный по названием расстояние Махаланобиса, определяемое для образов xи mкак

d = ( x - m ) / с -1 ( x - m ),

где c- ковариационная матрица совокупности образов, m - вектор средних значений, а х - представляет образ с переменными характеристиками(классифицируемый образ).

2. ЛОГИЧЕСКИЕ МЕТОДЫ

Объекты классов и реализация представляются в виде булевых функций:

Ωi = fi (x1, . . . , xn) , i = 1, . . . ,k

и G = (x1 , . . . , xn).

Заданы правила использования булевых функций при распознавании:

W = (w1 , . . . , wn).

Процедура распознавания состоит в определении неизвестной функции

F(Ω1 , . . . ,Ωk),удовлетворяющей уравнению

_

G (x1,. . . , xn ) + F(Ω1 , . . . , Ωk)= I, (1)

Где F- совокупность булевых функций априорного описания.

Пример:

F(Ω1) = x1x2+x3 или 110 + 001

Ωi = f1i + f2i

F(Ω2) = x1x3+x2или 101 + 010

Правило классификации:

_ _

GЄΩi, если G + f1 = I или G + f2 = I.

_

Пусть G = x1x2 или 110 ( G = 001).

Найти F такую, чтобы выполнялось равенство 1.

_

G + f1 = 001 + 110 = 111 = I

Ω1 : _

G + f2 = 001 + 001 = 001 ¹ I

_

G + f1 = 001 + 101 = 101 ¹ I

Ω:2: _

G + f2 = 001 + 010 = 011 ¹I

Вывод: G принадлежит Ω1.

3. СТРУКТУРНЫЕ МЕТОДЫ

При структурном подходе к распознаванию признаками служат образы, называемые непроизводными элементами, а также отношения между ними, характеризующие структуру образа.

Для описания образов через непроизводные элементы и их отношения специальный язык образов.

Правила такого языка, позволяющие составлять образы из непроизводных элементов, называется порождающей грамматикой.

Пример:

Заданы непроизводные элементы:

в d

а с

и правило объединения: головная часть присоединяется к хвостовой по прямым углом и записывается, например, ав, т.е.

в

а

Фигура будет иметь следующую грамматическую структуру: авсd.


В основе процедур(алгоритмов) распознавания лежат правила грамматического разбора.

4. ВЕРОЯТНОСТНЫЕ МЕТОДЫ

Статистический подход основывается на математических правилах классификации, которые формулируются и выводятся в терминах математической статистики.

Пример. Пусть совокупность объектов подразделена на два класса -Ω1 и Ω2, а для характеристики объектов используется один признак х. Известны описания классов - условные плотности распределения вероятностей значений признака объектов 1-го и 2-го классов, т.е. функции f1(x) и f2(x), а также априорные вероятности появления объектов 1-го и 2-го классов: р(Ω1) и р(Ω2).

В результате эксперимента определено значение признака распознаваемого объекта, равное х0.

Определить, к какому классу относится объект ?

Обозначим через х0 некоторое пока не определенное значение признака х и условимся о следующем правиле принятия решений:

-если измеренное значение признака распознаваемого объекта х00, то объект будем относить ко второму классу;

-если х0< х0 - к первому.

Если объект относится к первому классу, а его считают объектом второго класса, то совершена ошибка, которая называется ошибкой 1-го рода.

Условная вероятность ошибки 1-го рода равна

Q1 = ʃ f1(х) d(x)

x0

Если объект относится ко второму классу, а его считают объектом 1-го класса, то совершена ошибка, которую называют ошибкой второго рада.

Условная вероятность ошибки 2-го рада равна

x0

Q2 = ʃf2(x)

-∞

Для определения значения х0 введем понятие платежной матрицы

= ||с|| = с11 с12 ,

с21 с22

где с11 и с22 - потери, связанные с правильными решениями, а с12 и с21 - потери, связанные с совершением ошибок первого и второго рода соответственно.

Значение х0 определяется в зависимости от значения коэффициента правдоподобия

l (x) = f2(x)/f1(x).

Значению х0 соответствует критическое (пороговое) значение l (x) = l0

р(Ω1)(c12-c11)

l0 =

p(Ω2)(c21-c22)

Значение х0 позволяет оптимальным образом (в смысле минимума среднего риска) разделить признаковое пространство на две области: R1 и R2.

Область R1 состоит из значений х ≤ х0, для которых l(x) ≤ l0 а R2 - из значений х > х0, для которых l(x) > l0

Поэтому решение об отнесении объекта к первому классу следует принимать, если значение коэффициента правдоподобия меньше его критического значения, и ко второму классу, если больше.

На практике при построении систем распознавания возможны ситуации, когда известны:

а) f1(x), f2(x), р(Ω1), р(Ω2) и ||с|

б) f1(x), f2(x) и платежная матрица, но не известны р(Ω1), р(Ω2).

в) f1(x), f2(x), но не известны ни р(Ω1), р(Ω2) ни платежная матрица.

В каждой из этих ситуаций применяются свои критерии распознавания, а именно - критерий Байеса, минимаксный критерий, критерий Неймана-Пирсона.

Признаковая информация представляется в виде таблиц распознавания вида

Классы Градации признака хi
хi1 xi2 ... xim
А1 0.6 0.5 ... 0.1
А2 0.7 0.4 ... 0.2
... ... ... ...
An 0.1 0.2 ... 0.1

Наиболее часто используется критерий Байеса, который выражается формулой

p(Aj) p(bk/Aj)

p(Aj/bk) =

M