Кодирование сообщений в отсутствии шума

Содержание

Слайд 2

Средняя длина кодового слова длина кодового слова

Средняя длина кодового слова

длина кодового слова

Слайд 3

Слайд 4

Слайд 5

Теорема Крафта. Если – длины кодовых слов, соответствующих сообщениям , то

Теорема Крафта. Если
– длины кодовых слов, соответствующих сообщениям ,

то необходимым и достаточным условием существования неперекрываемых кодовых слов с заданными длинами является выполнение неравенства

m - число различных символов в кодовом алфавите

Слайд 6

Теорема Шеннона. При кодировании сообщений в алфавите насчитывающем m символов, при

Теорема Шеннона.
При кодировании сообщений
в алфавите насчитывающем m символов, при

условии отсутствия шумов,
средняя длина кодового слова не может быть меньше, чем , где - энтропия сообщений
Слайд 7

ДИСКРЕТНЫЕ КАНАЛЫ С ШУМАМИ Модель канала связи при наличии шумов

ДИСКРЕТНЫЕ КАНАЛЫ С ШУМАМИ

Модель канала связи при наличии шумов

Слайд 8

Слайд 9

Пропускная способность дискретного канала связи с шумами

Пропускная способность дискретного канала связи с шумами

Слайд 10

{Z} {Y}

{Z}

{Y}

Слайд 11

H(Z) – априорная (безусловная) энтропия ансамбля {Z} энтропия ансамбля {Z}, оставшаяся

H(Z) – априорная (безусловная) энтропия ансамбля {Z}

энтропия ансамбля {Z}, оставшаяся после

получения сообщения об ансамбле {Y}
Слайд 12

Слайд 13

Теоремы о кодировании в присутствие шумов

Теоремы о кодировании в присутствие шумов

Слайд 14

Теорема 1 (К. Шеннон). Если поток информации создаваемый источником где может

Теорема 1 (К. Шеннон). Если поток информации создаваемый источником

где может

быть сколь угодно малым положительным числом, то существует такой код, при котором вероятность ошибок на приемном конце сколь угодно мала; Сс – пропускная способность линии связи.
Слайд 15

Теорема 2 (К. Шеннон). Если поток информации создаваемый источником где ,

Теорема 2 (К. Шеннон). Если поток информации создаваемый источником

где ,

то среди кодов, обеспечивающих
сколь угодно малую вероятность ошибки,
существует код, при котором скорость
передачи информации
Слайд 16

Теорема 3 (К. Шеннон). Если поток информации создаваемый источником где то

Теорема 3 (К. Шеннон). Если поток информации создаваемый источником

где

то

никакой код не может сделать вероятность ошибки сколь угодно малой. Минимальные потери информации в единицу времени равны ε
Слайд 17

Фундаментальное свойство энтропии дискретных эргодических источников

Фундаментальное свойство энтропии дискретных
эргодических источников

Слайд 18

Теорема 1. Для любых ε>0 и δ>0 можно найти такое М0,

Теорема 1. Для любых  ε>0  и δ>0  можно найти такое М0,

при котором эргодические последовательности С длиной
распадаются на два класса: 1) нетипичные, сумма вероятностей которых меньше ε;
2) типичные, вероятности которых удовлетворяют следующему неравенству:


Слайд 19

Следствие 1. Типичные последовательности приблизительно равновероятны и число их равно Следствие

Следствие 1. Типичные последовательности приблизительно равновероятны и число их равно

Следствие

2. При больших М множество типичных последовательностей охватывает малую долю всех возможных последовательностей, вырабатываемых эргодическим источником.
Слайд 20

Следствие 3. Чтобы экспериментально определить энтропию эргодического источника, у которого вероятностные

Следствие 3. Чтобы экспериментально определить энтропию эргодического источника, у которого вероятностные

связи распространяются на очень большое число символов, нам необходимо располагать последовательностью еще большей длины при этом вычисленная энтропия будет близка к своему пределу
Слайд 21

Пример 1. Эргодический источник с энтропией (бит) вырабатывает четыре различных символа.

Пример 1. Эргодический источник с энтропией (бит) вырабатывает четыре различных символа.

Найти отношение числа типичных к общему числу всевозможных последовательностей длиной
(символов).

Решение. Число типичных последовательностей

а всех возможных

Слайд 22

Таким образом, типичные составляют одну тысячную всех возможных последовательностей.

Таким образом, типичные составляют одну тысячную всех возможных последовательностей.

Слайд 23

Пример 2. Источник вырабатывает с одинаковой вероятностью два символа А и

Пример 2. Источник вырабатывает с одинаковой
вероятностью два символа А и

В. Определить количество возможных последовательностей, содержащих символов А, причем

Определить вероятность события, что в выработанной источником последовательности длиной М содержится символов А.

Слайд 24

I случай. Пусть

I случай. Пусть

Слайд 25

Слайд 26

II случай. Пусть

II случай. Пусть