Смекни!
smekni.com

Расчет информационных характеристик дискретного канала (стр. 2 из 6)

Эта матрица отражает статистические характеристики действия помех. Канальная матрица источника является матрицей прямых переходов переданных сигналов

в принятые сигналы
.

Каждая строка КМИ представляет собой распределение условных вероятностей принятых сигналов

относительно переданных сигналов
. Все эти условные вероятности p(bj/ai) и образуют КМИ.

Канальная матрица приемника (КМП)

Дискретный канал полностью задан, если известны безусловные вероятности приема сигналов

и задана канальная матрица приемника.

Условные вероятности р(ai /bj) приёма сигналов

относительно переданных сигналов
составляют канальную матрицу приемника (КМП) и отражают действие помех на канале.

Канальная матрица объединения (КМО)

Дискретный канал полностью задан канальной матрицей объединения (КМО).

КМО состоит из совместных вероятностей появления сигналов

и
- р(ai ,bj) и отражает действие помех на канале связи.

Элементами матрицы являются совместные вероятности:

Взаимосвязь канальных матриц

Из КМО в КМИ

p(bi/aj) =

p(ai) =

p(ai,bj) (i=1,2…n)

Из КМИ в КМО


Из КМО в КМП

p(ai/bj) =

p(bj) =

p(ai,bj) (j=1,2…n)

Из КМП в КМО

p(ai, bj) = p(bj) ·p(ai/bj)

2.1 Свойства канальных матриц

Свойства канальной матрицы источника (КМИ):

1. КМИ – квадратная матрица, то есть её размер nxn ;

2. Сумма условных вероятностей каждой строки равна 1, то есть образует полную группу:

(i=1,2…n)

3. Условные вероятности главной диагонали КМИ отражают вероятность правильного приема сигналов

относительно переданных сигналов
;

4. Остальные условные вероятности канальной матрицы (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;

5. Для идеального канала, на котором нет помех, канальная матрица имеет вид:

Свойства канальной матрицы приемника (КМП):

1. КМП – это квадратная матрица, то есть её размер nxn ;

2. Сумма условных вероятностей каждого столбца равна 1, то есть образует полную группу:

(j=1,2…n)

3. Условные вероятности главной диагонали КМП отражают вероятность правильного приема сигналов

относительно переданных сигналов
;

4. Остальные условные вероятности канальной матрицы приемника(кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;

5. Для идеального канала, на котором нет помех, КМП имеет вид:

Свойства канальной матрицы объединения (КМО):


1. Сумма совместных вероятностей каждой строки равна безусловной вероятности источника:

дискретный матрица приемник кодирование

(i=1,2…n)

Σ p(ai) = 1

2. Сумма совместных вероятностей каждого столбца равна соответствующей безусловной вероятности приемника:

(j=1,2…n)

3. Сумма всех элементов канальной матрицы объединения равна 1.

Σ p(bj) = 1


3. Информационные характеристики источника сообщений

Для того, чтобы понять что такое информационные характеристики, нужно вначале дать определение таким терминам, как алфавит сообщения, кортеж упорядоченных уникальных символов и дискретный ансамбль сообщения (ДАС).

Алфавитом сообщения называются символы, которые входят в сообщение. Например:

A={a1, a2,…,an}

Кортеж упорядоченных уникальных символов – это упорядоченная последовательность символов.

Х={х1, х2,…, хn} – сообщение – кортеж символов

Дискретный ансамбль сообщения (ДАС) – сообщение с вероятностями символов ДАС {Х, p(хi) или A, p(ai)}

3.1 Количество информации
источника сообщений

Количество информации

Количеством информации символа сообщения определяется:

I(ai) = - log2(p(ai)) = - log(p(ai)) [бит] (i=1,2…n)

В Шенноновской теории информации количество информации источника определяется вероятностью появления символа.


I(ai) = - ln(p(ai)) [нат]

I(ai) = - lg(p(ai)) [дит]

Каждый символ сообщения содержит своё количество информации.

Свойства количества информации источника сообщений

1. Количество информации неотрицательно:

I(ai) >= 0

2. Чем выше вероятность, тем меньшее количество информации содержит символ.

3. Если вероятность символа равна 1, то количество информации этого символа равно 0.

р(ai) = 1 ⇒I(ai) = 0

4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.

I(a1, a2, a3) = I(a1) + I(a2) + I(a3)

Энтропия – среднее количество информации на символ сообщения (средневзвешенное).

[бит/символ]

Свойства энтропии

1. Энтропия неотрицательна: Н(А) ≥ 0


2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1: Н(ai) = 0 ⇔р(ai) =1

3. Энтропия ограничена: H (ai) ≤ log n[бит/символ]

где n – количество символов в сообщении.

4. Максимальная энтропия равна: Hmax(А) = log n[бит/символ]

3.2Информационные потери

Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).

Частная условная энтропия источника (ЧУЭИ) сообщений отображает количество потерь информации при передаче каждого сигнала аi:

H(В/аi) = −

p(bj/ai)logp(bj/ai) (i = 1,2…n) [бит/символ]

Общая условная энтропия источника (ОУЭИ) определяет средние потери количества информации на принятый сигнал

относительно переданных сигналов
.

[бит/символ]

4. Информационные характеристики приемника сообщений

4.1Количество информации
приёмника

Количество информации

Количеством информации символа сообщения определяется:

I(bj) = - log2(p(bj)) = - log(p(bj)) [бит] (j=1,2…n)

В Шенноновской теории информации количество информации приемника определяется вероятностью появления символа.

I(bj) = - ln(p(bj)) [нат]

I(bj) = - lg(p(bj)) [дит]

Каждый символ сообщения содержит своё количество информации.

Свойства количества информации приемника сообщений

1. Количество информации неотрицательно: I(bj) ≥ 0

2. Чем выше вероятность, тем меньшее количество информации содержит символ.

3. Если вероятность символа равна 1, то количество информации этого символа равно 0.

р(bj) = 1 ⇒I(bj) = 0