Смекни!
smekni.com

По компьютерным информационным технологиям Тема: «Предмет и основные понятия кит» (стр. 2 из 5)

• достоверность;

• адекватность;

• доступность;

• актуальность.

Знание

Знание — есть переживание, сравнённое с другими переживаниями это определение, которое дал Лосский Н. О. в своей работе "Обоснование интуитивизма", является наиболее точным.

Сравнительная информация (знание) обладает теми качествами, на которые как раз указывалипроцитированные мною авторы. В частности, она позволяет принимать решения. Причём, если это покупатель, то он может принять решение о покупке товара по более подходящей для него цене (при этом могут подключаться знания о качестве сервиса — сравнение информации; знания о надёжности торговой компании — сравнение информации о том, где могут продавать качественную, а где — поддельную продукцию и т. д.). Если решение принимает представитель торговой компании, то знания о конкурентах могут ему позволить более выгодно вести бизнес. Важно подчеркнуть, что каждый раз знание получается именно на основе сравнения информации.

Информационная система

В информатике понятие "система" чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия "система" словом "информационная" отображает цель ее создания и функционирования.

Информационная система — взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.

В работе информационной системы можно выделить слудующие этапы:

1. Зарождение данных — формирование первичных сообщений, которые фиксируют результаты

определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п..

2. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защита их от искажений, потери, деформирование целостности и др.

3. Обработка данных — процессы, вследствие которых на основании прежде накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные тоже можно обрабатывать, получая более обобщенные сведения.

4. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть создание документов на так называемых твердых (бумажных)

носителях. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением в "машинном виде" или тем и другим одновременно. В современных информационных системах сообщения массового характера большей частью имеют "машинный вид". Аппаратура, которая используется при этом, имеет название средства регистрации первичной информации. Потребности второго и третьего этапов удовлетворяются в современных информационных системах в основном средствами вычислительной техники. Средства, которые обеспечивают доступность информации для человека, то есть средства отображения данных, являются компонентами вычислительной техники. Подавляющее большинство информационных систем работает в режиме диалога с пользователем.

Типичные программные компоненты информационных систем включают: диалоговую подсистему ввода — вывода, подсистему, которая реализует логику диалога, подсистему прикладной логики обработки данных, подсистему логики управления данными. Для сетевых информационных систем важным элементом является коммуникационный сервис, обеспечивающий взаимодействие узлов сети при общем решении задачи. Значительная часть функциональных возможностей информационных систем закладывается в системном программном обеспечении: операционных системах, системных библиотеках и конструкциях инструментальных средств разработки. Кроме программной составной информационных систем важную роль играет информационная составная, которая задает структуру, атрибутику и типы данных, а также тесно связана с логикой управления данными.

Информационные технологии

В широком смысле слово технология — это способ освоения человеком материального мира с помощью социально организованной деятельности, которая включает три компоненты: информационную (научные принципы и обоснование), материальную (орудие работы) и социальную (специалисты, имеющие профессиональные навыки). Эта триада составляет сущность современного понимания понятия технологии.

Понятие информационной технологии появилось с возникновением информационного общества, основой социальной динамики в котором являются не традиционные материальные, а информационные ресурсы: знания, наука, организационные факторы, интеллектуальные способности, инициатива, творчество и т.д. К сожалению, это понятие настолько общее и всеохватывающее, что до сих пор специалисты не пришли к четкой, формализованной формулировке. Наиболее удачным определением понятия информационной технологии дано академиком Глушковым В.М., который трактовал ее как человеко-машинную технологию сбора, обработки и передачи информации, которая основывается на использовании вычислительной техники.

Эта технология быстро развивается, охватывая все виды общественной деятельности: производство, управление, науку, образование, финансово—банковские операции, медицину, быт и др.

Основные представления теории информации.
Понятие об информации и ее свойствах

Современная наука о свойствах информации и закономерностях информационных процессов называется теорией информации. Рассмотрим смысл понятия информация на примере двух подходов к измерению количества информации: подходов Хартли и Шеннона. Первый базируется на принципах теории множеств и комбинаторики, а для второго фундаментом служит теория вероятностей.

В основе всей теории информации лежит открытие, сделанное Р. Хартли в 1928 году, и состоящее в том, что информация допускает количественную оценку. К. Шеннон в 1948 году придал этой теории завершенность. Большой вклад в дальнейшее развитие и обобщение теории информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, Р.Л. Стратанович. Сравнительно недавно исследователи советских архивов сообщили о том, что теория, известная сегодня как теория Шеннона, была создана А.Н. Колмогоровым еще в 1938 году, но была засекречена, так как использовалась в военных разработках.

Подход Р. Хартли

Подход Р. Хартли базируется на фундаментальных теоретико-множественных, по существу комбинаторных основаниях, а также некоторых интуитивно очевидных предположениях.

Итак, будем считать, что если существует множество элементов и осуществляется выбор одного из них, то этим самым сообщается или генерируется определенное количество информации. Эта информация состоит в том, что если до выбора не было известно, какой элемент будет выбран, то после выбора это становится известным.

Найдем вид функции, связывающей количество информации, получаемой при выборе некоторого элемента из множества, с количеством элементов в этом множестве, иначе говоря — с мощностью множества.

Если множество элементов, из которых осуществляется выбор, состоит из одного единственного элемента, то его выбор предопределен, т.е. никакой неопределенности выбора нет. Таким образом, если мы узнаем, что выбран этот единственный элемент, то, очевидно, при этом мы не получаем никакой новой информации, т.е. получаем нулевое количество информации.

Если множество состоит из двух элементов, то неопределенность выбора существует, но ее значение минимально. В этом случае минимально и количество информации, которое мы получаем, узнав, что совершен выбор одного из элементов.

Чем больше элементов содержит множество, тем больше неопределенность выбора, т.е. тем больше информации мы получаем, узнав о том, какой выбран элемент.

Из этих очевидных соображений следует первое требование: информация есть монотонная функция мощности исходного множества — чем больше элементов содержит множество, тем больше заключено в нем информации.

Обычно мы представляем числа в десятичной системе счисления, или системе счисления с основанием 10.

В компьютерных технологиях опираются на представления чисел в двоичной (цифры 0 и 1) и шестнадцатеричной системах, в последней к цифрам 0123456789 добавлены "цифры" ABCDEF (10 11 12 13

14 15)

В двоичной системе целое число представляется как сумма степеней числа 2 с соответствующими коэффициентами от 0 до 1, а в шестнадцатеричной — как сумма степеней числа 16 с соответствующими коэффициентами от 0 до 15 (но вместо чисел от 10 до 15 используются буквы A — F).

Рассмотрим процесс выбора чисел из рассмотренного множества. До выбора вероятность выбрать любое число одинакова. Существует объективная неопределенность в вопросе о том, какое число будет выбрано. Эта неопределенность тем больше, чем больше N — количество чисел, а чисел тем больше — чем больше разрядность i этих чисел.

Примем, что выбор одного числа дает нам следующее количество информации:

i = Log2(N).

Таким образом, количество информации, содержащейся в двоичном числе, равно количеству двоичных разрядов в этом числе.