Смекни!
smekni.com

Выбор и обоснование информационных характеристик канала связи (стр. 5 из 16)

Рис. 4.1. Аналоговый сигнал

xmin = - 0.204

xmax = 0.095

4.2. Расчет энтропии источника

Передаваемая информация представляет собой совокупность следующих сигналов:

1) а1 – знак числа, а1= (0,1). Заранее указать его невозможно, поэтому, в соответствии с признаком максимальной энтропии, Р1 = 0.5.

2) а2 – количество цифр целой части числа, а2 = 0

3) а3 – число в интервале от 0 до наибольшего по абсолютной величине х, а3 = 204.

Если допустить, что цифры по КС передаются двоичным кодом, то для передачи числа 204 требуется l разрядов:

2l = 204 (4.1)

l = 7.672

После округления в большую сторону для расчетов принято l = 8. Таким образом, а3 = [0, 204] передается с помощью двойного кода с количеством разряда, равным 8. Заранее указать значение числа невозможно, поэтому, в соответствии с принципом максимальной энтропии, Р = 1/28.

Таким образом, передаваемая информация состоит из трех сигналов и представляет собой сложное сообщение.

При передаче сигналов их энтропия находится по формуле Шеннона:

Н

(4.2)

H1 = - 0.5 * log2 0.5

H1 = 0.5 бит/символ

H2 = - 1*log2 1

H2 = 0 бит/символ

H3 =

H3 = 8 бит/символ

На основании правила сложения энтропий при передаче сложного сообщения, можно найти энтропию датчика сообщения:

H(А) = H1 + H2 + H3 (4.3)

H(А) = 8.5 бит/символ

4.3. Расчет ширины спектра сигнала

Любой непрерывный датчик характеризуется шириной спектра сигнала dF. В соответствии с теоремой Котельникова, для обеспечения неискаженного процесса передач необходимо показание датчика снимать с интервалом времени dt:

dF =

(4.4)

Учитывая (1.9) и (1.10), ширина спектра сигнала будет равна:

dF = 0.06 Гц

4.4. Расчет полосы пропускания КС

Необходимо рассчитать ПП КС при соотношении сигнал-шум равным 26.

В соответствии с теоремой Шеннона, для обеспечения передачи информации без искажений должно выполняться условие:

C >> R (4.5)

где R – скорость выдачи информации датчиком

С – пропускная способность КС

Т.е.

2Fkcmin log2 (

)
2dF

Fkcmin

dF

Fkcmin

0.109 Гц

Ширина ПП должна быть тем больше, чем больше ширина спектра датчика и чем меньше соотношение мощности сигнала к мощности помехи.

4.5. Расчет энтропии приемника

В настоящее время создано большое разнообразие оконечных или периферийных устройств, с помощью которых можно представлять информацию в форме, удобной для обработки. Эта информация может наноситься на магнитные либо на бумажные носители, или представляться в виде образов на экране.

В зависимости от формы носителя разрабатываются свои методики, с помощью которых обосновываются характеристики оконечных устройств. Эти методики учитывают специфику оконечных устройств. Рассмотрим подход при разработке этих методик на примере согласования КС с черно-белым дисплеем с разрешением 800*600.

На экран монитора информация выводится в виде множества точек – пикселей. Количество пикселей, выводимых на дисплей, определяется двумя величинами – r и q. Черно-белый дисплей может, в принципе, представлять образы в виде полутонов, т.е. для каждого пикселя существует l градаций яркости. В этом случае необходимо учитывать гораздо большее количество состояний дисплея.

С другой стороны, в современных дисплеях управление разверткой луча и уровнем полутона осуществляется командами, которые представляют собой двоичные кодовые группы. Для определения количества разрядов этих кодовых групп будем считать, что луч должен выводиться равновероятно в любую точку матрицы q*r, а градации полутона могут быть также выбраны равновероятно из интервала [0, l].

Тогда количество разрядов для кодирования величин q, r, l составит:

(4.6)

В данном случае r = 600, q = 800, l = 8.

n1 = 9.644 бит/символ

n2 = 9.229 бит/символ

n3 = 3 бит/символ

Если считать, что все состояния дисплея равновероятны, то энтропия дисплея численно равна:

H(B) = log2 2n1 + n2 + n3 = n1 + n2 + n3 (4.7)

H(B) = 21.873 бит/символ

4.6. Определение максимальной полосы КС

Если на дисплей в единицу времени подается n0 фрагментов информации, то частота подачи информации на дисплей будет равна:

F =

(4.8)

Тогда скорость вывода информации на дисплей определиться по формуле:

R = n0 H(B) =

(4.9)

Задача согласования КС с дисплеем сводится к следующему:

R >> C (4.10)

или

Fkcmax
(4.11)

Подставив в эту формулу выражения 4.7 и 4.8, получим:

n0(n1 + n2 + n3)

Fkcmax

При достаточно большом соотношении сигнал-шум величина

1, следовательно, для согласования КС с дисплеем достаточно чтобы выполнялось условие:

Fkcmax

n0(n1 + n2 + n3) (4.12)

В данном случае необходимо определить полосу КС при n0 = 80 зн/с:

Fkcmax

1.75*103 Гц

4.7. Выбор ширины ПП КС

Для нормальной передачи информации от датчика к дисплею по КС должны выполняться два условия:

(4.13)

Из этой формулы следует следующее:

Fkc = Fkmax – Fkmin

Fkc = 1.75 кГц

Таким образом, для нормальной передачи информации от датчика к дисплею по КС должны выполняться два условия:

1) Пропускная способность КС должна быть больше либо равна скорости выдачи информации датчиком.

2) Скорость вывода информации на дисплей должна быть больше либо равна пропускной способности КС.

В данном случае, исходя из формулы (4.13), видно, что достаточная ширина ПП КС составляет 1.75 кГц.


5. КОДИРОВАНИЕ ИНФОРМАЦИИ В КАНАЛЕ СВЯЗИ

БЕЗ ПОМЕХ

Необходимо закодировать заданное сообщение М <АКСЕНЕНКО_И> двумя способами:

1. методом Шеннона-Фано;

2. методом Хаффмана.

Для каждого кода требуется оценить показатель его эффективности.

Для расчетов принять значения вероятностей появления букв, представленные в приложении.

5.1. Оптимальное кодирование

Дискретный КС, работающий без помех, является самым простым техническим устройством. Для такого канала наилучшим способом кодирования является система с неравномерными кодами. При этом наиболее вероятные сообщения необходимо передавать короткими кодовыми группами. При этом основанием кода может быть любое число k.

Допустим, передаче подлежит ансамбль (1,2,3…m) с соответствующими вероятностями (Р1, Р2, Р3… Рm). Тогда количество информации

Ii = - log2 Pi

(5.1)

где

= Рi

Отсюда путем некоторых преобразований можно получить выражение для определения среднего количества разрядов, которые необходимо отвести при передаче символов:

ni =

(5.2)

Если среднее количество разрядов не больше дроби, то кодирование оптимальное. Если нет, то говорят что кодирование неоптимальное. В настоящее время разработано множество оптимальных кодов, но классическими являются коды Шеннона-Фано и Хаффмана. Отличительной способностью этих кодов является то, что начало любой кодовой комбинации, с помощью которой кодируется символ, не совпадает с более короткой кодовой комбинацией.

5.2. Кодирование сообщения методом Шеннона-Фано

5.2.1. Разработка кода сообщения