Смекни!
smekni.com

Выбор и обоснование информационных характеристик канала связи (стр. 9 из 16)

Из сравнения графиков зависимостей Q(r) для кодов, полученных разными методами, установлено, что оба метода одинаково эффективны с точки зрения показателя Q (вероятности возникновения ошибок при передаче сообщения).

6.3. Исследование зависимости вероятностью возникновения ошибок в сообщении от вероятности возникновения ошибок в одном разряде

6.3.1. Метод Шеннона-Фано

Предположим, что вероятность появления ложного сигнала в одном разряде меняется в пределах от 0 до 0.01.

Как было установлено, учитывать ошибки кратности больше 3 нецелесообразно, поэтому формула зависимости возникновения ошибок в сообщении от вероятности возникновения ошибок в одном разряде будет аналогична, однако в других пределах:

(6.4)

Рис. 6.6. Зависимость Q5 от q

6.3.2. Метод Хаффмана

Формула для расчетов зависимости возникновения ошибок в сообщении, закодированном методом Хаффмана, от вероятности возникновения ошибок в одном разряде имеет тот же вид:

Рис. 6.7. Зависимость Q6 от q

При наложении графиков 6.6 и 6.7 получим:

Рис. 6.7. Зависимость Q5, Q6 от q

Существует сильная зависимость между вероятностью появления ошибки в целом сообщении и вероятностью ее появления в одном разряде, особенно при малых значениях q. При сравнительно небольших изменениях q значение Q резко возрастает. Следовательно, для передачи сообщения без искажений необходимо использовать КС с высокой помехоустойчивостью или применять корректирующие коды.


7. КОДИРОВАНИЕ ИНФОРМАЦИИ

ГРУППОВЫМ (БЛОЧНЫМ) КОДОМ

Необходимо построить групповой код, способный обнаруживать и исправлять одну ошибку при передаче сообщения М = (АКСЕНЕНКО_И), закодированного с помощью метода Хаффмана.

7.1. Представление сообщения, закодированного методом Хаффмана, в блочной форме

Задача построения кода формируется так же, как постановка общей задачи кодирования. Любое сообщение любой длины представляется в виде совокупности блоков таким образом, чтобы эти блоки могли бы сформировать квадратную матрицу.

Необходимо передать сообщение М = (АКСЕНЕНКО_И). В закодированном методом Хаффмана виде оно выглядит следующим образом:

1000010101100110100010111001101110111110001001

При этом, как было рассчитано, что количество разрядов в закодированном сообщении n2 = 46.

Для построения информационной матрицы необходимо рассчитать число m, которое равно количеству разрядов в ней.

m

(7.1)

m

m = 7

Таким образом, информационная матрица в блочном виде выглядит следующим образом:

A =

7.2. Разработка производящей (генераторной) матрицы

Генераторная матрица составляется по следующей формуле:

V = (I;П) (7.2)

т.е.

n = m + k (7.3)

где I = 7 x 7 – единичная матрица с левой диагональю

П – контрольная матрица

n – количество разрядов в генераторной матрице

m – количество разрядов в информационной матрице

k – количество контрольных разрядов

Для определения количества контрольных разрядов используется понятие нижней границы Хемминга. Эта граница устанавливает связь между количеством контрольных разрядов k и количеством ошибок S, которые необходимо обнаружить и исправить. Нижняя граница Хемминга задается следующей формулой:

(7.4)

Если прологарифмировать обе части неравенства, то получим формулу нахождения k:

(7.5)

Для приближенных расчетов используют формулу:

(7.6)

Формулы 7.4 и 7.5 обосновывают количество контрольных разрядов:

k = 4

Исходя из этого, по формуле 7.3 можно найти количество разрядов в генераторной матрице:

n = 7 + 4

n = 11

Количество ошибок, которые можно обнаруживать и исправлять, определится как:

d = r + S + 1 (7.6)

d – минимальное расстояние кода, способного исправлять одну ошибку

r = 1 – кратность ошибок

S = 1 – количество ошибок, которые необходимо исправить

Для обеспечения получения кодовых комбинаций с заданным d необходимо и достаточно, чтобы вес базовой кодовой комбинации был больше либо равен d, т.е. число отличающихся разрядов любой пары базовых кодовых комбинаций не должен быть меньше d. Базовые кодовые комбинации, удовлетворяющие этим требованиям, называют базисом группового кода и записывают в виде генераторной матрицы.

Для определения веса генераторной матрицы используется следующая формула:

W

d
3 (7.5)

d = r + S + 1

d = 3

W

3
3

В этом случае вес проверочной матрицы определится как:

Wп

W – 1

Единица отнимается по той причине, что в информационной матрице один разряд уже равен 1. Таким образом, вес проверочной матрицы равен:

Wп

2

Далее из таблицы всех возможных комбинаций необходимо выбрать те, у которых вес больше или равен 2:

Таким образом, сформируется генераторная матрица:

V =

7.3. Формирование блочного кода

Для формирования блочного кода каждая строка информационной матрицы шифруется отдельно. Для этого используется построенная генераторная матрица. Соответствующие строки складываются по модулю 2:

1 строка: {1 0 0 0 0 1 0}

2 строка: {1 0 1 1 0 0 1}

3 строка: {1 0 1 0 0 0 1}

4 строка: {0 1 1 1 0 0 1}

5 строка: {1 0 1 1 1 0 1}

6 строка: {1 1 1 1 0 0 0}

7 строка: {1 0 0 1 1 1 1}

Из результатов сложения составляется закодированная информационная матрица, представленная в блочном виде, готовая к передаче:

М =

7.4. Декодирование блочного кода в режиме обнаружения и исправления ошибок