Смекни!
smekni.com

Проблеми штучного інтелекту (стр. 3 из 10)

Підсумки першого етапу розвитку когнітивної психології були висунуті у книзі Нейссера «Когнітивна психологія» 1967 року. Він пише, що конструктивний характер наших пізнавальних процесів є фундаментальним фактом. Завдання когнітивної психології полягає в тому, щоб зрозуміти, яким чином «сприймається, запам'ятовується і осмислюється світ, що породжується з такого непродуктивного початку, як конфігурація ретинальної стимуляції або візерунки звукового тиску у вусі». Найссер підкреслює, що мова йде лише про подібність, але не про ідентичність машинних програм і психічних процесів.

Протягом 1970-х років у психології і за її межами, насамперед у роботах з штучного інтелекту, склалося єдина думка щодо теоретичних підстав, методів і моделей когнітивних досліджень. Певною мірою умовно, можна виділити чотири принципи традиційної парадигми ранньої когнітивної психології:

1. Пріоритет знання й раціонального мислення над поведінкою, звичками і афектом.

2. Використання комп'ютерної метафори.

3. Припущення про послідовність переробки інформації.

4. Акцент на формальному моделюванні замість вивчення мозкових механізмів.

Модульна метафора

Комп’ютерна метафора використовувала для порівняння з мозком людини так звані «фон-нейманівські» машини, універсальні обчислювачі, які характеризувалися здатністю розділяти інформацію на пасивні дані і активні операції над ними, а ткож наявністю одного процесору. Революцію у науці спричинив винахід транзистора, а з ним і мікропроцесора. Комп’ютери з його використанням, хоч і були простіші від «фон-нейманівських», але були швидші і точніші у виконанні точних і визначених практичних завданнях. Також у цілях економії мікропроцесори почали використовувати для створення багатопроцесорних комп’ютерів, що дозволило значно скоротити час обробки інформації, шляхом розбиття задачі на під завдання і об’єднання процесорів між собою. Це і призвело до виникнення медулярного підходу.

Першим автором, що використав термін «модулярність» для опису організації психологічних процесів, був американський нейроінформатик Девід Марр. Він припустив, що «будь-який великий масив обчислень повинен бути реалізований як набір частин, настільки незалежних один від одного, наскільки це допускає спільне завдання. Якщо процес організованих не таким чином, то невелика зміна в одному місці буде мати наслідки в багатьох інших. Це означає, що процес у цілому буде дуже важко виправити або поліпшити, як шляхом втручання людини, так і за допомогою природної еволюції - адже будь-яка зміна, що покращує один із фрагментів, буде супроводжуватися безліччю компенсаторних змін в інших місцях » (Маrrі, 1976). Ідея розбиття великого масиву обчислень на відносно незалежні автономні задачі, які вирішуються спеціалізованими механізмами (підпрограмами або модулями) була очевидною для біологів та інформатиків, але спочатку залишалася малопереконливою для фахівців з когнітивної психології, цілком задоволених можливостями класичної комп'ютерної метафори. Джеррі Фодор ввів поняття модулярності і в психологію. Архітектура пізнання представляє собою, з його точки зору, швидше мозаїку з безлічі паралельних і дещо автономних у функціональному відношенні процесів, а зовсім не організоване в єдиний механізм ціле. Фодор сформулював в цілому 8 критеріїв, або ознак, які в сукупності дозволяють ідентифікувати когнітивні модулі. До них відносяться:

1. вузька спеціалізація

2. інформаційна закритість

3. обов'язковість

4. висока швидкість

5. поверхнева обробка

6. біологічне походження

7. селективність випадінь

8. фіксованості нейроанатоміческіх механізмів.

Нейронна метафора

Якщо на початку виникнення когнітивного підходу багато психологів сприйняли спочатку як звільнення від необхідності цікавитися мозковим субстратом та можливими нейрофізіологічним механізмами тих чи інших пізнавальних процесів, то протягом останнього десятиліття 20-го століття яскраво продивляється глобальна тенденція, що пов'язана із зростанням інтересу до мозкових механізмів - реальної архітектурі пізнавальних процесів.

У подальші роки з появою безлічі нестандартних архітектур в коннекціонізмі і, особливо, у зв'язку із спекуляціями про мозкову локалізацію тих чи інших «когнітивних модулів» природно стало виникати питання про те, як ці гіпотетичні механізми реалізовані насправді. Змінився і сам характер когнітивних досліджень, які в значній мірі спираються сьогодні на дані нейропсихологічних і нейрофізіологічних робіт. Починаючи з 1990-х років послабився вплив власне комп'ютерної метафори і машинних моделей.

Отже, іншим впливовим підходом впродовж останніх 20 років став так званий PDP-підхід (від paralle ldistributed processing = паралельно розподілена обробка), широко відомий також як коннекціонізм. В даному випадку також іде мова про відмову від комп’ютерної метафори в її символьному варіанті. Однак, якщо концепція когнітивних модулів Федора лише допускає деяку паралельність обробки в яких-небудь частинах когнітивної моделі, то в коннекціонізмі паралельність опрацювання стає загальним принципом. Мова іде про те, що всі елементи системи, що інтерпретується як нейронна мережа, розглядаються як такі, що потенціально пов’язані між собою і одночасно беруть участь у формуванні відповіді на стимул.

Схема найпростішої мережі.

Головна перевага нейронних моделей у порівнянні традиційними когнітивними моделями полягає можливості асоціативного і розподіленого збереження інформації а також адаптивного навчання. Перша особливість означає, що будь-який фрагмент першопочаткової ситуації чи будь-яка початкова обставина здатні асоціативно підтримати пригадування. Розподіленим зберігання є тому, що його субстратом є у кожному окремому випадку не окремий елемент, а мережа в цілому, тобто стани всіх її вузлів і вагомість їх зв’язків. Нарешті, конекціонізм дозволяє природно описувати деякі елементарні форми навчання. Процеси навчання у нейронних мережах мають власну специфіку, найпростіша, суто асоціативна процедура навчання в нейронних мережах стосується класичних іде прокладення шляхів паловської фізіології.

Правило Хебба: між усіма синхронно активованими нейронами знижуються пороги синаптичних зв'язків (підвищуються вагові коефіцієнти активаційних зв'язків). В результаті багаторазових повторень поширення активації при виникненні на вході тієї ж ситуації відбувається швидше; група елементів, «ансамбль», активується як ціле, і ця активація відбувається навіть при змінах ситуації, наприклад, випаданні якихось компонентів зображення, а також «відмирання» частини «нейронів» самої мережі. Тим самим, вдається моделювати особливості цілісного сприйняття, описаного гештальтпсихології. Подібна терпимість до спотворень на вході і до порушень механізму обробки інформації разюче контрастує з тендітністю звичайних символьних програм. Крім того, пластичність синаптичних зв'язків, що лежить в основі формування ансамблів, дозволяє дати фізіологічне пояснення процесів узагальнення (категоризації) окремих ситуацій. Недоліком описаного механізму самоорганізації нейронних зв'язків є його надзвичайно повільний, що вимагає сотень і тисяч повторень, характер.

Прикладом більш ефективного комп'ютерного алгоритму навчання служить запропонований канадським інформатиком Джеффрі Хінтон і його колегами метод зворотного поширення помилки. У цьому випадку мережі пред'являється деяка конфігурація, а потім відповідь на виході порівнюється з ідеальною, бажаною відповіддю. Результат такого порівняння обчислюється і пропускається потім у зворотному напрямку: від виходу мережі до її вхідного шару, причому на кожному проміжному етапі здійснюються деякі корекції вагових коефіцієнтів зв'язків елементів з метою подальшої мінімізації неузгодженості. Але «контрольована мінімізація неузгодженості» залишає сильне враження довільного підбору бажаного результату.

Ряд коннекціоністскіх моделей використовує зворотні зв'язки для повторного пропускання продуктів обробки через нейронну мережу. Ця властивість, рекурентність, дозволяє обробляти конфігурації на вході в контексті попередніх подій («минулого досвіду»).

У настільки динамічній області, як когнітивна наука, важко прогнозувати майбутній розвиток подій. У рамках робіт з обчислювальною нейронаукою (нейроінтеллектом) і еволюційним моделюванням останнім часом починають розглядатися більш реалістичні, з біологічної і біофізичної точки зору, альтернативи штучним нейронним мережам. При збільшенні обсягу мозку в процесі еволюції вихідний мережевий принцип «все пов'язано з усім» перестає виконуватися, виникають елементи модулярної макроорганізаціі (Striedter, 2004).

У зв’язку з появою вової хвилі зацікавленості у процесах головного мозку і появою нових можливостей у технологічному плані, виникли нові методи дослідження головного мозку. Аж до самого останнього часу існували дві основні групи методів вивчення нейрофізіологічних механізмів:

Найбільш відомим з новітніх методів є позитронно-емісіонна томографія (ПЕТ). Негативним чинником є необхідність введення у кров радіоактивної речовини з нестійкими ізотопами. При активізації якої-небудь ділянки мозку, кров направляється туди, де і проходить розпад, продукти якого потім реєструються. Цей метод забезпечує високе просторове розширення але може реєструвати тільки зміни, що протікають досить повільно, не швидше хвилини.