Смекни!
smekni.com

Нечіткий метод групового врахування аргументів (стр. 4 из 5)

3. Алгоритм потребує усталених правил функціонування.


2 Нечіткий метод групового врахування аргументів

2.1 Метод групового врахування аргументів як основа нечіткого методу

Метод групового врахування аргументів (МГВА) був запропонований наприкінці 60-х —початку 70-х р.р. академіком О.Г. Івахненко (Інститут кібернетики НАН України). Цей метод використовує ідеї самоорганізації і механізми живої природи – схрещування (гібридизацію) і селекцію (добір).

Нехай є вибірка з N спостережень вхідних векторів Х(i) та вихідних Y(і) :

Рис.3. Задача ідентифікації моделі

За результатами спостережень треба визначити F(х), причому структура моделі F(х) невідома.

Найбільш повна залежність між входами Х(i) і виходами Y(i) може бути представлена за допомогою узагальненого полінома Колмогорова-Габора.

Нехай є вибірка X = {х1,..., хN} , тоді такий поліном має вигляд:

,

де всі коефіцієнти αi не відомі.

При побудові моделі (при визначенні значень коефіцієнтів) в якості критерій використовується критерій регулярності (точності):

Нам треба знайти таку модель, для якої

.

Розглянемо основні принципи та ідеї МГВА.

Принцип множинності моделей: існує множина моделей на даній вибірці, що забезпечують нульову помилку (достатньо підвищувати ступінь полінома моделі). Тобто, якщо є N вузлів інтерполяції, то можна побудувати ціле сімейство моделей, кожна з яких при проходженні через експериментальні точки буде давати нульову помилку

Як правило, ступінь нелінійності беруть не вище n–1, якщо n – кількість точок вибірки.

Позначимо S – складність моделі (визначається числом членів полінома Колмогорова-Габора).

Значення помилки

залежить від складності моделі. Причому в міру росту складності спочатку вона буде падати, а потім зростати. Нам же потрібно вибрати таку оптимальну складність, при якій помилка буде мінімальна. Крім того, якщо враховувати дію перешкод, то можна виділити наступні моменти:

Рис. 4. Залежність помилки від складності моделі

При різному рівні перешкод залежність

від складності S буде змінюватися, зберігаючи при цьому загальну спрямованість (мається на увазі, що з ростом складності вона спочатку буде зменшуватись, а потім – зростати).

При збільшенні рівня перешкод величина

буде зростати.

З ростом рівня перешкод величина

буде зменшуватись (оптимальне значення складності буде зміщатися вліво). Причому
, якщо рівень перешкод не нульовий (див. рис.4).

Теорема неповноти Геделя: У будь-якій формальній логічній системі існує ряд тверджень і теорем, які не можна ні спростувати, ні довести, залишаючись у рамках цієї системи аксіом.

У даному випадку ця теорема означає, що вибірка завжди неповна. Один зі способів подолання цієї неповноти – принцип зовнішнього доповнення. В якості зовнішнього доповнення використовується додаткова вибірка (перевірочна), точки якої не використовувалися при навчанні системи (тобто при пошуку оцінок значень коефіцієнтів полінома Колмогорова-Габора).

Пошук найкращої моделі здійснюється в такий спосіб:

1. Уся вибірка поділяється на навчальну і перевірочну:

;

2. На навчальній вибірці

визначаються значення α0, αi ,αij;

3. На перевірочній вибірці

відбираються кращі моделі.

Вхідний вектор має розмірність N (X ={x1,…,xn}).

Принцип свободи вибору (неостаточності проміжного рішення):

1. Для кожної пари xi та xj будуються часткові описи (усього

) виду:

— або

(лінійні);

— або

(квадратичні).

2. Визначаємо коефіцієнти цих моделей по МНК, використовуючи навчальну вибірку. Тобто знаходимо â0, âi,…, âj ,…, âN, â11,…, âij ,…, âNN

3. Далі на перевірочній вибірці для кожної з цих моделей знаходимо оцінку

(де

– дійсне вихідне значення в k-тій точці перевірочної вибірки;
– вихідне значення в k-тій точці перевірочної вибірки відповідно до S-тієї моделі) і визначаємо F кращих моделей.

Обрані yi подаються на другий ряд (рис.3).

Шукаємо

Оцінка тут така ж, як на першому ряді. Добір кращих. здійснюється знову так само, але F2< F1.

Процес конструювання рядів повторюється доти, поки середній квадрат помилки буде падати. Коли на шарі m одержимо збільшення помилки

, то припиняємо.

Якщо часткові описи квадратичні і число рядів полінома S, то одержуємо, що максимальний ступінь полінома k = 2S. На відміну від звичайних методів статистичного аналізу, при такому підході можна одержати досить складну залежність, навіть маючи коротку вибірку.

Існує проблема: на першому ряді можуть відсіятися деякі змінні xi і xj, котрі впливають на вихідні дані.

Рис.5. Структура багаторядного алгоритму МГВА

У зв'язку з цим запропонована така модифікація: на другому шарі подавати yi і xi,-, тобто:


Це важливо при високому рівні перешкод, щоб забезпечити незміщеність моделей.

Виникає два критерії добору кращих кандидатів часткових описів, які передаються на певному шарі на наступний ряд (шар).

1. Критерій регулярності (точності)

а)

;

б)

.

Критерій незміщеності. Беремо усю вибірку, поділяємо на дві частини R1, R2, де R = R1 + R2:

Перший експеримент:

R1 — навчальна вибірка, R2 — перевірочна;

визначаємо виходи моделі

;

Другий експеримент:

R2 — навчальна вибірка, R1 — перевірочна;

визначаємо виходи моделі

; і порівнюємо.

Критерій незміщеності:

Чим менше nзм, тим більше незміщеною є модель.

Такий критерій визначається для кожного часткового опису першого рівня і потім знаходиться nзм для рівня в цілому для F кращих моделей

.

У ряді варіантів F = 1. Аналогічно на другому шарі обчислюємо

.

І процес селекції здійснюється доти, поки цей критерій не перестане зменшуватися, тобто до досягнення умови

.

До переваг методу МГВА можна віднести наступі властивості.

1. Можна відновити невідому довільно складну залежність по обмеженій вибірці. Число невідомих параметрів моделі може бути більше, ніж число точок навчальної послідовності.

2. Можливість адаптації параметрів моделі при одержанні нових даних експериментів (зокрема використовуючи РМНК).

2.2 Суть нечіткого методу групового врахування аргументів

Побудова систем самоорганізації по методу групового обліку аргументів (МГВА) базується на наступних принципах.

1. Принцип самоорганізації моделі. При послідовному збільшенні складності структури моделі значення зовнішніх критеріїв спочатку зменшуються, досягають мінімуму, а потім залишаються незмінними чи починають збільшуватися. Перше найменше значення комбінації критеріїв визначає єдину модель оптимальної складності.

2. Принцип зовнішнього доповнення. Задачі інтерполяції відносяться до некоректно поставлених задач, що мають багатозначне рішення. Для однозначного їхнього рішення необхідне завдання адекватного зовнішнього доповнення – зовнішнього критерію оптимальності. Під зовнішнім критерієм будемо розуміти критерій, що обчислюється з використанням інформації, не використаної при оцінці параметрів. Внутрішні доповнення, тобто критерії, що не використовують ніякої додаткової інформації, при дії перешкод не можуть вирішити задачу вибору моделі оптимальної складності.