Модели каналов передачи информации при наличии помех. Математическое описание канала передачи информации

Содержание

Слайд 2

Модели каналов передачи информации при наличии помех Учебные вопросы Математическое описание

Модели каналов передачи информации при наличии помех

Учебные вопросы
Математическое описание канала связи.
Взаимная

информация.
Пропускная способность канала.
Теоремы кодирования для канала
Слайд 3

Литература 1.Вернер М. Основы кодирования − М.: Техносфера, 2004. – 288 с. 2.

Литература

 1.Вернер М. Основы кодирования − М.: Техносфера, 2004. – 288 с.


2.
Слайд 4

Цели передачи по каналу с шумом 1. Быстрое кодирование информации. 2.

Цели передачи по каналу с шумом

1. Быстрое кодирование информации.
2. Простой способ

передачи закодированного сообщения.
3. Быстрое декодирование полученной информации.
4. Надежная очистка от шума и помехи.
5. Передача максимального объема информации в единицу времени
Слайд 5

Статистические (стохастические) каналы Переходная вероятность p(y(t)|x(t)), показывает, с какой вероятностью фиксированный

Статистические (стохастические) каналы

Переходная вероятность
p(y(t)|x(t)),
показывает, с какой вероятностью фиксированный входной

сигнал x(t) преобразуется каналом в выходное наблюдение y(t).
Статистическое описание канала является исчерпывающим, когда известны переходные вероятности для всех возможных сочетаний входа x(t) и выхода y(t).
Слайд 6

Математическая модель В математическую модель канала можно включать любые компоненты реальных

Математическая модель

В математическую модель канала можно включать любые компоненты реальных

систем передачи информации с единственной оговоркой:
в нее обязательно должна войти физическая среда распространения.
Слайд 7

Классификация каналов: Дискретные и непрерывные как по времени, так и по

Классификация каналов:

Дискретные и непрерывные как по времени, так и по

состоянию.
Непрерывные по времени:
- входные и выходные колебания трактуются как непрерывные процессы.
Дискретные по времени
- вход и выход описываются последовательностями отсчетов в фиксированные дискретные моменты времени.
Слайд 8

Классификация каналов: Канал называется дискретным по состоянию, если входное и выходное

Классификация каналов:

Канал называется дискретным по состоянию, если входное и выходное

колебания принадлежат дискретному (конечному или счетному) множеству (ансамблю).
Если же оба эти ансамбля несчетны, канал непрерывен по состоянию.
Слайд 9

Канал без памяти Отклик на входное воздействие не зависит от значения воздействия в предыдущий момент времени.

Канал без памяти
Отклик на входное воздействие не зависит от значения

воздействия в предыдущий момент времени.
Слайд 10

Дискретный канал без памяти (ДКБП) Пусть x(i), y(i) – входные и

Дискретный канал без памяти (ДКБП)

Пусть x(i), y(i) – входные и выходные

символы векторов
x=(x(1), x(2), … , x(n)) и
y = (y(1), y(2), … , y(n)),
Переходная вероятность p(y|x) преобразования каналом входного n-мерного вектора в выходной равна
Слайд 11

ДКБП ДКБП полностью описывается своей символьной или мгновенной переходной вероятностью p(y(i)|x(i)),

ДКБП

ДКБП полностью описывается своей символьной или мгновенной переходной вероятностью p(y(i)|x(i)), которая

для стационарного канала инвариантна к времени
Слайд 12

Пример. Двоичный симметричный канал (ДСК): p – вероятность ошибки на символ.

Пример. Двоичный симметричный канал (ДСК):

p – вероятность ошибки на символ.

Слайд 13

Симметричный q-ичный канал: Канал по которому передается q-ичное слово с независимыми

Симметричный q-ичный канал:

Канал по которому передается q-ичное слово с независимыми

ошибками, с вероятность ошибки p и неправильный символ встречается с той же вероятностью p/(q – 1). Символ передается правильно с вероятностью 1 – p
Слайд 14

Канал со стираниями (стирающий) Переходная матрица

Канал со стираниями (стирающий)

Переходная матрица

Слайд 15

Z-канал (оптический) 0-light on, 1-light off

Z-канал (оптический) 0-light on, 1-light off

Слайд 16

Троичный симметричный канал

Троичный симметричный канал

Слайд 17

Двоичные каналы связи Модели Гильберта, Эллиота-Гильберта, Смита-Боуэна-Джойса и Фричмана-Свободы. Первые три

Двоичные каналы связи

Модели
Гильберта,
Эллиота-Гильберта,
Смита-Боуэна-Джойса и
Фричмана-Свободы.
Первые три модели используют

конечные цепи Маркова с двумя состояниями, последняя – использует конечные цепи Маркова с произвольным числом состояний
Слайд 18

А. А. Марков Математик, академик, внёсший большой вклад в теорию вероятностей математический анализ теорию чисел

А. А. Марков

Математик,
академик,
внёсший большой
вклад в
теорию вероятностей
математический анализ
теорию чисел

Слайд 19

Цепи Маркова A. Марков (1856-1922)

Цепи Маркова

 

A. Марков (1856-1922)

Слайд 20

Пример. Цепи Маркова

Пример. Цепи Маркова

 

Слайд 21

Пример. Цепи Маркова Вычислим P(W через 2 дня)?

Пример. Цепи Маркова

Вычислим P(W через 2 дня)?

Слайд 22

Модель Эллиота -Гильберта Канал GEC представляет из себя цепь Маркова первого

Модель Эллиота -Гильберта

Канал GEC представляет из себя цепь Маркова первого порядка

с двумя состояниями: «хорошим» G и «плохим» B. Каждое из состояний – модель ДСК
Слайд 23

Апостериорная вероятность Полная информация, которую можно извлечь из y об x,

Апостериорная вероятность

Полная информация, которую можно извлечь из y об x,

содержится в апостериорных вероятностях p(x|y) .
(Не путать с переходными вероятностями p(y|x)!).
Апостериорная вероятность p(x|y) показывает, сколь вероятно то или иное значение x после получения наблюдения y.
Слайд 24

Условная энтропия H(X|y) Неопределенность множества возможных значений входа x, вычисленной при фиксированном наблюдении y

Условная энтропия H(X|y)

Неопределенность множества возможных значений входа x, вычисленной при фиксированном

наблюдении y
Слайд 25

Остаточная энтропия Усреднение H(X|y) по всем возможным y, дает численную меру

Остаточная энтропия

Усреднение H(X|y) по всем возможным y, дает численную меру

средней неопределенности относительно входного значения, остающейся после наблюдения.
Условную энтропию входного ансамбля относительно выходного называют остаточной энтропией
(в работах Шеннона – equivocation – ненадежность):
.
.
.
Слайд 26

Средняя взаимная информация Полагая p(y)p(x|y)=p(x,y), получим Снижение неопределенности после наблюдения y

Средняя взаимная информация

Полагая p(y)p(x|y)=p(x,y), получим
Снижение неопределенности после наблюдения y выразится в

разности H(X) и H(X|Y).
Эту разность называют средней взаимной информацией между X и Y :
Слайд 27

Средняя взаимная информация I(X;Y) показывает число битов информации о входе канала

Средняя взаимная информация

I(X;Y) показывает число битов информации о входе канала извлекаемое

в среднем из выходного наблюдения, иначе говоря, количество информации, в среднем доставляемое каналом от входа к выходу.
Слайд 28

Взаимная информация Взаимная информация между x и y. Здесь первое слагаемое

Взаимная информация

Взаимная информация между x и y.
Здесь первое слагаемое правой

части – количество информации I(x) в x безотносительно к каким-либо другим событиям, а второе – количество информации I(x|y) в x после того, как получено наблюдение y.
Поэтому I(x;y) показывает изменение неопределенности относительно x до и после наблюдения y.
Слайд 29

Пропускная способность Максимальное количество информации, которое можно в принципе передать по

Пропускная способность

Максимальное количество информации, которое можно в принципе передать по

данному дискретному каналу за один входной символ называют информационной емкостью или пропускной способностью канала:
Слайд 30

Пропускная способность Пропускная способность – фундаментальный параметр канала, определяющий его потенциальные

Пропускная способность

Пропускная способность – фундаментальный параметр канала, определяющий его потенциальные

возможности в части надежной передачи информации.
Слайд 31

Р. Фано Неравенство Фано (лемма), связывающего среднюю потерю информации в канале

Р. Фано

Неравенство Фано (лемма),
связывающего среднюю потерю информации в канале передачи

с шумами с вероятностью ошибок при приёме сигнала (1951 г.)
Неравенство применяется для вычисления нижней границы вероятности ошибки для любого декодера, и для получения границ для минимаксного риска в оценке плотности.
Слайд 32

Ошибка декодирования (ошибочное решение). Неравенство Фано Вероятность ошибки декодирования Pe Вероятность правильного решения Pc

Ошибка декодирования (ошибочное решение). Неравенство Фано

Вероятность ошибки декодирования Pe
Вероятность правильного решения

Pc
Слайд 33

Неравенство Фано Остаточная энтропия и вероятность ошибки декодирования где h(·) –

Неравенство Фано

Остаточная энтропия и вероятность ошибки декодирования
где h(·) – энтропия

двоичного источника, а M – общее число сообщений
Слайд 34

Энтропия двоичного источника (p – вероятность одного из двух сообщений): Энтропия

Энтропия двоичного источника

(p – вероятность одного из двух сообщений):

Энтропия двоичного

источника
в зависимости от p
Слайд 35

Скорость передачи или скорость кода R Пусть одно из M равновероятных

Скорость передачи или скорость кода R
Пусть одно из M равновероятных сообщений,

закодированное некоторым кодовым словом длины n, поступает на вход канала.
Это означает, что мы пытаемся пропустить через канал
бит информации на каждый кодовый символ
Слайд 36

Теоремы Шеннона

Теоремы Шеннона

Слайд 37

Обратная теорема кодирования При скорости, превышающей пропускную способность канала, R>C, не

Обратная теорема кодирования

При скорости, превышающей пропускную способность канала, R>C, не существует

кода, гарантирующего произвольно малую вероятность ошибочного декодирования.
Говорит о недостижимости высокой надежности передачи данных при скорости R, большей пропускной способности C.
Слайд 38

Прямая теорема кодирования При скорости, меньшей пропускной способности канала, R Если

Прямая теорема кодирования

При скорости, меньшей пропускной способности канала, R

код, обеспечивающий произвольно малую вероятность ошибочного декодирования.
Если скорость R меньше емкости канала C, в принципе всегда можно передавать данные с любой наперед заданной надежностью
Слайд 39

Случайное кодирование В среднем по всем возможным кодам вероятность ошибочного декодирования

Случайное кодирование

В среднем по всем возможным кодам вероятность ошибочного декодирования ограничена

сверху экспонентой (случайного кодирования):
где величина E(R), называемая функцией надежности канала, не зависит от длины кода n и всегда положительна при скорости R, меньшей пропускной способности канала C.
Слайд 40

Случайное кодирование Верхняя граница для Pe (экспонента случайного кодирования) является экспоненциально

Случайное кодирование

Верхняя граница для Pe (экспонента случайного кодирования) является экспоненциально точной,

асимптотически приближаясь для лучших кодов достаточно большой длины n к истинной вероятности ошибки декодирования.
Поэтому она служит надежным эталоном в суждении о том насколько хорош тот или иной конкретный код
Слайд 41

Графики Характерные зависимости вероятности ошибки Pe от длины n и функции надежности E(R) от скорости R.

Графики

Характерные зависимости вероятности ошибки Pe от длины n и функции надежности

E(R) от скорости R.
Слайд 42

Задача ТК Прямая теорема Шеннона является типичной математической теоремой существования, не

Задача ТК

Прямая теорема Шеннона является типичной математической теоремой существования, не давая

ни малейшего намека на то, как практически отыскать хотя бы один фигурирующий в ней код.
Дисциплиной, посвященной поиску путей реальной утилизации потенциала, декларируемого прямой теоремой, является теория кодирования.
Слайд 43

Шеннон. Гауссовский канал с аддитивным шумом

Шеннон. Гауссовский канал с аддитивным шумом

 

Слайд 44

Шеннон Shannon

Шеннон Shannon

Слайд 45

Что дает коррекция ошибок? Выигрыш от кодирования: Применение кодов позволяет, для

Что дает коррекция ошибок?

Выигрыш от кодирования:
Применение кодов позволяет,
для заданной вероятности


ошибки PB
на бит уменьшить
отношение сигнал-шум
Eb / N0 :

Вероятность ошибки

Отношение сигнал-шум