Смекни!
smekni.com

Создание искусственного интеллекта: мифы и реальность (стр. 3 из 3)

«ViaVoice»-системы распознавания речи, способны обслуживать потребителей.

роботы в ежегодном турнире «RoboCup» соревнуются в упрощённой форме футбола.

Банки применяют системы искусственного интеллекта (СИИ) в страховой деятельности, при игре на бирже и управлении собственностью. Методы распознавания образов (включая, как более сложные и специализированные, так и нейронные сети) широко используют при оптическом и акустическом распознавании, медицинской диагностике, спам-фильтрах, в системах ПВО для обеспечения ряда задачнациональной безопасности.

Разработчики компьютерныхигр применяют искусственный интеллект в той или иной степени проработанности. Это образует понятие- игровой искусственный интеллект. Стандартными задачами искусственного интеллекта в играх являются имитация поведения боевой единицы, нахождение путив двумерном или трёхмерном пространстве, расчёт верной экономической стратегии.

Пытаться предсказать конкретно, как именно благожелательный искусственный интеллект поможет человечеству, или недружественный искусственный интеллект повредит-это рискованное интеллектуальное предприятие. Доктор математических наук Винер, основатель кибернетики, написал множество книг, посвященных машинам, их использованию, их будущему и настоящему. Сотрудничая с физиологами и психологами, он доказывает некоторое сходство работычеловеческого мозга и электронного. Однако, как отмечает доктор Винер в своей книге «Кибернетика», даже обладая определенным набором рецепторов, эффекторовискусственный интеллект является лишь имитацией простейших условных рефлексов живых существ. Все вышесказанное полностью относится и к человекоподобным роботам-это весьма примитивные модели человека.Однако, в будущем, доктор Винер считает возможным создание не только разумной машины, но и машины «умнее своего создателя». Не исключает он и бунта машин. Он полагает, что не только робот, но и любая стратегическая машина способна вызвать катастрофу.

В 2014 году на базе Кембриджского университета будет создан "Центр изучения глобальных рисков", одной из целей которого является определение принципов разработки "безопасного" искусственного интеллекта.Глава создаваемого центра профессор философии Хью Прайс опубликовал статью " Искусственный интеллект: сможем ли мы удержать его в коробке?", в которой призвал серьезно рассмотреть возможные угрозы. "Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственномуинтеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться". Основной причиной опасности ультра-умных машин создатели проекта видят в принципиальном отличии предполагаемого интеллекта от человека. Все ценности - такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история - нет ни одной причины полагать, что машины будут разделять их с нами, что повлечет за собой катастрофические последствия.

Многие ученые высказываются, что самая главная угроза выживанию человеческой цивилизации - это увеличение вычислительных мощностей компьютеров. Рано или поздно этот процесс приведет к созданию "единого искусственного интеллекта", который будет способен писать программы самостоятельно и без вмешательства человека производить роботов, свое "потомство".Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.

Тем не менее, международная неправительственная организация HumanRightsWatch призвала правительства всех стран отказаться от создания полностью автономных вооружений, способных нарушить права мирного населения во время военных действий. По оценке организации, боевые роботы не смогут отличить мирных жителей от военных и нарушат множество положений Женевских конвенций («законы войны») и требования ДекларацииМартенса.

Что же может произойти после реального появления искусственного интеллекта? При текущей скорости прогресса первые дни после этого события могут стать самым опасным временем в истории человечества.Наступит эра господства слабого и ограниченного искусственного интеллекта, очень опасной комбинации, которая сможет нанести непоправимый ущерб существующей цивилизации. Существует множество гипотетическихнаправлений появления искусственного интеллекта. Под сингулярностью зачастую ошибочно понимают искусственный интеллект, который просто умнее человека. Однако, это не так. Большая часть из созданных образцов искусственного интеллекта уже превышают человеческие возможности. Однако современный искусственный интеллект недостаточно сложный и продвинутый, чтобы причинить значительный ущерб инфраструктуре человечества. Проблемы появятся, когда в случае сингулярности искусственный интеллект начнет многократно улучшать самого себя. По словам математика Ирвина Джона Гуда, событие сингулярного перехода будет подобно интеллектуальному взрыву, который действительно, как бомба, поразит нас. Контроль человека над машинами навсегда будет отодвинут на второй план. Технологическая сингулярность, представляет собой гипотетический момент появления рекурсивного улучшения искусственного интеллекта - искусственный сверхразум. Он достигает развития могучего, подобного интеллекту человека либо искусственный сверхразум значительно превосходит человеческий. Особое беспокойство вызывает возрастание использования слабого искусственного интеллекта в качестве экспертной системы, соответствующей человеческому интеллекту или даже превосходящей его, в конкретной узконаправленной области. Следствием этого может стать независимая и бесконтрольная работа этих систем.

Центр по изучению экзистенциальных рисков (CSER) г. Кембриджа провел исследования, которые доказали, что современные технологии могут уничтожить человеческую цивилизацию уже в ближайшем будущем. Трудно точно узнать как, когда и где произойдет первая настоящая катастрофа, вызванная искусственным интеллектом. Но можно с уверенностью утверждать, что у нас в запасе есть еще несколько десятилетий. Наша инфраструктура прочна и еще не достаточно интегрирована, чтобы с ней могло случиться что-то действительно страшное. Нонаш полностью цифровой и более взаимосвязанный мир уязвим перед такими угрозами.

Список литературы

Гэри Антес. Формула жизни, Computerworld Россия, №4 (501), 2006, - 36с.

Андрей Плахов - О проблеме создания искусственного интеллекта /Научно- популярныйжурнал«Мембрана», [Электронный ресурс].

http://www.membrana.ru/articles/readers/2002/12/16/210400.htm (дата обращения 28.10.2013г.) .

СотникС. Л. - Экспертные системы. Базовые понятия. Методика построения. Статистическийподход. Режим доступа: http://ai.obrazec.ru/aiexpert.htm(дата обращения 25.10.2013г.).

Алан Тьюринг - Могут ли машины мыслить? Портал «Гуманитарное образование». Режим доступа: http://humanities.edu.ru/db/msg/27602 (дата обращения 20.10.2013г.).