Содержание
- 2. Средняя длина кодового слова длина кодового слова
- 5. Теорема Крафта. Если – длины кодовых слов, соответствующих сообщениям , то необходимым и достаточным условием существования
- 6. Теорема Шеннона. При кодировании сообщений в алфавите насчитывающем m символов, при условии отсутствия шумов, средняя длина
- 7. ДИСКРЕТНЫЕ КАНАЛЫ С ШУМАМИ Модель канала связи при наличии шумов
- 9. Пропускная способность дискретного канала связи с шумами
- 10. {Z} {Y}
- 11. H(Z) – априорная (безусловная) энтропия ансамбля {Z} энтропия ансамбля {Z}, оставшаяся после получения сообщения об ансамбле
- 13. Теоремы о кодировании в присутствие шумов
- 14. Теорема 1 (К. Шеннон). Если поток информации создаваемый источником где может быть сколь угодно малым положительным
- 15. Теорема 2 (К. Шеннон). Если поток информации создаваемый источником где , то среди кодов, обеспечивающих сколь
- 16. Теорема 3 (К. Шеннон). Если поток информации создаваемый источником где то никакой код не может сделать
- 17. Фундаментальное свойство энтропии дискретных эргодических источников
- 18. Теорема 1. Для любых ε>0 и δ>0 можно найти такое М0, при котором эргодические последовательности С
- 19. Следствие 1. Типичные последовательности приблизительно равновероятны и число их равно Следствие 2. При больших М множество
- 20. Следствие 3. Чтобы экспериментально определить энтропию эргодического источника, у которого вероятностные связи распространяются на очень большое
- 21. Пример 1. Эргодический источник с энтропией (бит) вырабатывает четыре различных символа. Найти отношение числа типичных к
- 22. Таким образом, типичные составляют одну тысячную всех возможных последовательностей.
- 23. Пример 2. Источник вырабатывает с одинаковой вероятностью два символа А и В. Определить количество возможных последовательностей,
- 24. I случай. Пусть
- 26. II случай. Пусть
- 28. Скачать презентацию