Смекни!
smekni.com

Закономерности движения информации и их влияние на технологию информационного производства (стр. 1 из 6)

Введение

Тема реферата «Закономерности движения информации и их влияние на технологию информационного производства».

Цель работы – раскрыть смысл понятий - системы мер измерения движения информации; вербальной формы представления информации; единицы информации которые приняты в библиотечном производстве; количественными и качественными свойствами информации; статистическими и динамическими законами движениями информации.

1. Системы мер измерения движения информации и ее потоков

Изучение закономерностей движения информации в обществе и развития общественного информационного производства необходимо начать с определения системы мер, характеризующих эти процессы количественно.

Единого согласованного определения понятия «информация» в настоящее время не существует. До сих пор с различных позиций характеризуются сущность (субстанция) информации, ее структурные элементы, свойства и признаки, формы проявления (выражения) и организации, ее роль в производстве и управлении, в жизни и развитии общества.

Мы рассматриваем особый вид информации, объекты и субъекты которой — человек и техника. Человек или любая человеко-машинная система имеет дело не вообще с информацией того или иного вида, а с конкретными материальными формами ее проявления, которые часто называют структурными единицами (элементами) информации.

Конечная, элементарная единица информации — сигнал определенной природы, процесс или явление, позволяющие автомату или человеку воспринимать информацию, заключенную в сообщениях. В технических системах используются сигналы самой различной физической природы (электрические, пневматические, гидравлические и др.). В сигнальных системах типа «человек — человек» конечным сигналом служит слово. В смешанных, так называемых человеко-машинных системах слово, понятное человеку, преобразуется в сигналы, понятные машине, и наоборот. Промежуточным структурным элементом информации в этих преобразованиях служит знак (буквенный, цифровой или другой). Знак не дает достаточной информации об обозначаемом предмете, не является субъективным образом этого предмета. Только система знаков способна составить этот образ. Поскольку информация о предмете практически бесконечна, то образ отражает лишь часть данной информации. Знак, следовательно, несет не всю информацию о предмете, а его «информационный инвариант», то есть часть информации, общую и для предмета, и для образа.

Таким образом, схема трансформации информации при ее «движении» от объекта к субъекту будет следующей: предмет — образ — слово — знак — сигнал. Характерно, что при таком движении происходит редукция информации. Кроме информации о предмете и его образе, знак содержит и субъективную информацию, характеризующую отношение человека к предмету и образу.

Со знаком как со структурной единицей и формой выражения информации тесно связано понятие кода. В социально-технических системах код представляет собой значение знака или слова естественного языка, выраженное в символах какого-либо искусственного языка. Символы выбираются и строятся с таким расчетом, чтобы их можно было легко преобразовывать в сигналы, воспринимаемые и автоматом, и человеком. Знаки и знаковые системы, коды и кодовые системы, как формы выражения информации, обладают относительной независимостью от содержания информации, хранимой, передаваемой и обрабатываемой при их посредстве. Одна и та же информация может быть выражена при помощи различных знаков и кодов. Это очень важное положение теории информации. В соответствии с этим положением вся информационная техника развивается в направлении поисков и создания искусственных систем сигнализации, знаковых и кодовых систем, обеспечивающих более эффективное представление, а также передачу, хранение и обработку информации.

Важная структурная единица информации — язык. Выделяют два больших класса языков: естественные и искусственные. Искусственные информационные языки делятся на следующие виды: классификационные, дескрипторные, алгоритмические, машинные.

Более крупная единица информации — информационные модели, представляющие собой систему знаков, символов, слов, предложений искусственного или естественного языка, имитирующих объект (предмет, явление, процесс) в целом или его отдельные части, те или иные стороны (аспекты) его функционирования. Известны четыре основных класса (группы) информационных моделей: абстрактные (знаковые и графические), наглядные (изображения), предметные (макеты) и комбинированные.

Важным понятием является поток информации — направленное движение информации от источника к получателю. Направление потока задается, как правило, адресами источника и получателя информации. Содержание потока — перечень структурных единиц информации. Объем потока определяется количеством структурных единиц, обычно с указанием их максимальной длины. Режим потока определяется периодом времени между сообщениями.

С понятием потока информации тесно связано понятие «коммуникация» — путь информации. В настоящее время этот термин приобрел более широкий смысл и употребляется, помимо указанного, еще и в других значениях. Коммуникацией называют способность и сам факт общения между людьми (массовая коммуникация), а также сигнальный способ связи у животных. В исследованиях вопросов массовой коммуникации отмечается, что в настоящее время происходит процесс замены движения человека к информации на обратное движение — информации к человеку. Эта тенденции обусловлена необходимостью проведения особой политики в развитии средств обработки и доставки информации человеку.

С понятием «коммуникация» тесно связано понятие «связь». Вообще «связь», как и «информация», общенаучное понятие. В философском осмыслении связь — это взаимообусловленность существования явлений, разделенных в пространстве и времени. В Советском энциклопедическом словаре (СЭС) понятие «связь» трактуется как:

— форма движения материи: механическая, физическая (тепловая, электромагнитная, гравитационная, атомная, ядерная), химическая' биологическая, общественная;

— форма детерминизма (определенности): однозначная, вероятностная, корреляционная;

— сила: жесткая, корпускулярная, сильная, слабая (связь);

— характер результата: связи порождения, связи преобразования;

— направление действия: прямая, обратная (связь);

— тип процесса, который данная связь определяет: функционирование, развитие, управление;

— содержание, которое является предметом связи: перенос вещества, энергии, информации.

Мы рассматриваем понятие «связь» в контексте интересующих нас видов информации, то есть мы говорим о связи между людьми, человеком и автоматом, автоматом и автоматом. Таким образом, дополнительно к перечисленным видам связи добавляется связь как характер субъекта и объекта, передатчика и приемника (реципиента) информации.

Из приведенной классификации видов связи следует, что информация является содержанием, предметом связи. В вероятностно-статистической теории связи (именно эта теория положила начало теории информации) информация определяется как противоположность неопределенности, как уменьшаемая неопределенность (энтропия).

Исходя из этого, количество информации — это степень уменьшенной (снятой) неопределенности в результате передачи сообщений. В случае когда событие может иметь два равновероятных значения, один из возможных двоичных ответов на двоичный вопрос «да» или «нет» представляет собой минимальное количество информации. Этот ответ передается по каналам связи в виде физического сигнала, имеющего одно из двух равновесных значений — «0» или «1» (есть импульс или нет). Такому двоичному ответу на один из двоичных вопросов, передаваемому по каналам связи с помощью физического сигнала, и соответствует минимальное количество информации, которое Клод Э. Шеннон назвал «бит» (binarydigit — двоичная цифра). Содержащееся в сообщении полное количество информации в битах определяется с учетом количества слов естественного языка (в случае социальной информации), количества знаков в каждом слове и количества двоичных символов (0 или 1), необходимых для выражения каждого знака. Двоичная форма кодирования информации, сейчас основная в дискретных системах типа «автомат — автомат», служит арифметической основой проектирования и функционирования дискретных средств вычислительной техники.

В работах Хартли и Шеннона информация возникает перед нами лишь в своей внешней оболочке, которая представлена отношениями сигналов, знаков, сообщений друг к другу — синтаксическими отношениями. Количественная мера Хартли—Шеннона не претендует на оценку содержательной (семантической) или ценностной, полезной (прагматической) сторон передаваемого сообщения.

Для раскрытия общих закономерностей движения информации в обществе необходимы более грубые и более предметные изменения информации и ее потоков. Нейропсихологи утверждают, что кратковременная память человека в состоянии удерживать около семи различных объектов, обдумываемых им одновременно. При этом сложность и природа объектов может быть различной. Причем в шенноновских битах (двоичных единицах) эти объекты, как правило, измерить не удается.

Общаясь друг с другом, люди работают в режиме «вопрос—ответ», причем в битах можно измерить только длину передаваемых сообщений. С позиций движения информации больший интерес представляет число вопросов и ответов, произведенных в процессе общения. Сложность вопросов и ответов только косвенно можно измерить битами. В зависимости от субъектов и темы общения сложность может измеряться в более крупных, чем бит или символ (буква, байт и пр.), единицах.

В сложных информационных производствах одновременно общаются друг с другом много пар: «человек—человек», «человек—машина», «машина—машина». В процессе общения вырабатываются и на какое-то время фиксируются некоторые порции информации. Сопоставить различные информационные производства можно только при относительно близких единицах измерения этих порций, или единицах информации.