Смекни!
smekni.com

Проблемы кибирнетики (стр. 5 из 5)

Отсутствия жесткой связи способа функционирования (поведения) со строго определенным субстратом означает, что если две системы обнаруживают одинаковое поведение в достаточно широкой области, то они должны рассматриваться как системы сходные, аналогичные по этому способу поведения. Имеет смысл рассмотреть этот вопрос в связи с проблемой кибернетического моделирования.

Иногда встречается утверждение, что кибернетическое моделирование вообще неприменимо к изучению мышления, т.к. моделирование основана на понятиях соответствия и изоморфизма, а мышление есть чисто человеческая способность, якобы не могущая быть описана на основе понятий соответствия. Иногда говорят, что понимание познания, мышления как соответствия образа предмету означает ни много, ни мало как дуалистическую точку зрения, внешне сопоставляющую предмет и образ.

Понимание сознания как отражения неизбежно означает понимание его как соответствия, возникающего в ходе приспособления организма к среде. Причем это соответствие не есть просто внешнее соответствие вещи и образа как самостоятельного по отношению к вещи идеального предмета. Это действительно была бы дуалистическая точка зрения, но она не может монополизировать понятие соответствия. Материализм понимает образ, идеальное именно как соответствие определенных состояний мозга определенным состояниям внешнего мира. Это соответствие и несет информацию о внешнем мире.

В приведенном утверждении не проводится различие между информационным моделированием информационных процессов и информационным моделированием неинформационных процессов. Информационная модель прибора не будет работать, а будет только моделировать работу, однако в отношение мышления этот тезис представляется спорным. По отношении к информационным процессам их моделирование является функционально полным, т.е. если модель дает те же самые результаты, что и реальный объект, то их различие теряет смысл.

Заключение

Многие споры вокруг проблемы "кибернетика и мышление" имеют эмоциональную подоплеку. Признание возможности искусственного разума представляется чем-то унижающим человеческое достоинство. Однако нельзя смешивать вопросы возможности искусственного разума с вопросом о развитии и совершенствовании человеческого разума. Разумеется, искусственный разум может быть использован в негодных целях, однако это проблема не научная, а скорее морально-этическая.

Однако развитие кибернетики выдвигает ряд проблем, которые все же требуют пристального внимания. Эти проблемы связаны с опасностями, возникающими в ходе работ по искусственному интеллекту.

Первая проблема связана с возможной потерей стимулов к творческому труду в результате массовой компьютеризации или использования машин в сфере искусств. Однако в последнее время стало ясно, что человек добровольно не отдаст самый квалифицированный творческий труд, т.к. он для самого человека является привлекательным.

Вторая проблема носит более серьезный характер и на нее неоднократно указывали такие специалисты, как Н.Винер, Н.М.Амосов, И.А.Полетаев и др. Состоит она в следующем.

Уже сейчас существуют машины и программы, способные в процессе работы самообучаться, т.е. повышать эффективность приспособления к внешним факторам. В будущем, возможно, появятся машины, обладающие таким уровнем приспособляемости и надежности, что необходимость человеку вмешиваться в процесс отпадет. В этом случае возможна потеря самим человеком своих качеств, ответственных за поиск решений. Налицо возможная деградация способностей человека к реакции на изменение внешних условий и, возможно, неспособность принятия управления на себя в случае аварийной ситуации. Встает вопрос о целесообразности введения некоторого предельного уровня в автоматизации процессов, связанных с тяжелыми аварийными ситуациями. В этом случае у человека, "надзирающим" за управляющей машиной, всегда хватит умения и реакции таким образом воздействовать на ситуацию, чтобы погасить разгорающуюся аварийную ситуацию. Таковые ситуации возможны на транспорте, в ядерной энергетике. Особо стоит отметить такую опасность в ракетных войсках стратегического назначения, где последствия ошибки могут иметь фатальный характер. Несколько лет назад в США начали внедрять полностью компьютеризированную систему запуска ракет по командам суперкомпьютера, обрабатывающего огромные массивы данных, собранных со всего света. Однако оказалось, что даже при условии многократного дублирования и перепроверки, вероятность ошибки оказалась бы столь велика, что отсутствие контролирующего оператора привело бы к непоправимой ошибке. От системы отказались.

Люди будут постоянно решать проблему искусственного интеллекта, постоянно сталкиваясь со все новыми проблемами. И, видимо, процесс этот бесконечен.


Список используемой литературы

1. Баженов Л.Б., Гутчин И.Б., Интеллект и машина, изд. "Знание", М., 1973.

3. Бердяев Н.А. Человек и машина, Вопросы философии, 1989, N2.

4. Вычислительные машины и мышление. М., "Мир", 1967.

5. Кибернетика и философия. АН Латвийской ССР, изд. "Зинатне", 1977.

6. Клаус Г. Кибернетика и философия, М., "Иностранная литература", 1963.

7. Маркс.К., Энгельс.Ф. Собр. соч. Структура и форма материи. Сб., М., "Наука", 1967.

8. Моисеев Н.Н. Компьютеризация, ее социальные последствия, Вопросы философии, 1987, N9.

9. Системно-кибернетические аспекты познания. АН Латв. ССР, изд. "Зинатне", 1985.

10. Шалютин С. Искусственный интеллект. М., 1981.

Ссылки в тексте

[1] К.Маркс и Ф.Энгельс. Соч., т.21, стр. 285-286.

[2] К.Маркс и Ф.Энгельс. Соч., т.21, стр. 284.

[3] Ю.Шейнин. Интегральный интеллект. М., "Молодая гвардия", 1970.

[4] См. в сб."Структура и формы материи". М., "Наука", 1967.

[5] К.Маркс и Ф.Энгельс. Соч., т.33, с.67-68.

[6] См. Вычислительные машины и мышление. М., "Мир", 1967.