Содержание
- 2. Эффективное кодирование решает задачу более компактной записи сообщений, вырабатываемых источником за счет их перекодировки. Применяется практически
- 3. Сжатие в большее число раз Применяется, если же не требуется восстановление информации «бит в бит» Например,
- 4. Кодирование – в широком смысле слова – это представление сообщений в форме, удобной для передачи по
- 5. ИИ – источник информации КИ – кодер источника КК –кодер канала М – модулятор ЛС –линия
- 6. Сообщению X на выходе источника информации (ИИ) необходимо поставить в соответствие определенный сигнал. Дискретные сообщения складываются
- 7. 1. Преобразовать информацию в такую систему символов (код), чтобы он обеспечивал.: простоту аппаратуры различения отдельных символов;
- 8. 2. Второй целью кодирования является на основании теорем Шеннона – согласование свойств источника сообщений со свойствами
- 9. в канале эффективное кодирование позволяет преобразовать входную информацию в последовательность символов, наилучшим образом подготовленную для дальнейшего
- 10. имеет целью обеспечить заданную достоверность при передаче или хранении информации путем дополнительного внесения избыточности, но уже
- 11. Если избыточность источника сообщений (ИС) и помехи в канале связи практически отсутствуют, то введение как КИ,
- 12. кодированный сигнал поступает в устройство кодирования символов сигналами – модулятор М. Получаемый на выходе модулятора сигнал
- 13. Устройство декодирования помехоустойчивого кода декодер канала ДК и устройство декодирования сообщений (декодер источника ДИ) выдают декодированное
- 14. При кодировании каждая буква исходного алфавита представляется различными последовательностями, состоящими из кодовых букв (цифр). Если исходный
- 15. достаточно пронумеровать буквы исходного алфавита и записать их коды как q - разрядные числа в k-ичной
- 16. Кроме двоичных кодов, наибольшее распространение получили восьмеричные коды. Например, необходимо закодировать алфавит, состоящий из 64 букв.
- 17. В любом реальном сигнале всегда присутствуют помехи. Однако, если их уровень настолько мал, что вероятность искажения
- 18. В этом случае среднее количество информации, переносимое одним символом, можно считать: J(Z; Y) = Hапр(Z) –
- 19. следовательно, пропускная способность дискретного канала без помех в единицах информации за единицу времени равна: Cy =
- 20. Если источник информации создает поток информации , Такой что, производительность источника информации равна пропускной способности канала
- 21. Согласно сформулированной теореме существует метод кодирования, позволяющий при: H(x) ≤ C – передавать всю информацию, вырабатываемую
- 22. если источник информации имеет энтропию H(X), то сообщения можно закодировать так, чтобы средняя длина кода lср
- 23. то есть при а = 2 (бит) и My = 2 {0; 1} имеем: где pi
- 24. Это следует из равенства: . Таким образом, lср выступает критерием эффективности кодирования. Чем ближе lср к
- 25. Это следует из равенства: (Производительность ист.=попускн.сп .к=макс.ск. Канала без помех=произ макс. скорости передачи сообщения на ср
- 26. Из этого же критерия следует, что если буквы имеют равномерное распределение вероятностей их употребления, то H(x)
- 27. В большинстве случаев буквы сообщений преобразуются в последовательности двоичных символов. Учитывая статистические свойства источника сообщений, можно
- 28. Шеннон доказал, что сообщения, составленные из букв некоторого алфавита, можно закодировать так, что среднее число двоичных
- 29. Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом
- 30. Символы первичного алфавита m1 выписывают по убыванию вероятностей. Символы полученного алфавита делят на две части, суммарные
- 31. Наибольший эффект сжатия получается в случае, когда вероятности букв представляют собой целочисленные отрицательные степени двойки. Среднее
- 32. Методика Шеннона-Фэно Пример: В равномерном коде длина сообщения n=3 Среднее число двоичных символов кода Шеннона-Фано, приходящихся
- 33. Методика Шеннона-Фэно В равномерном коде длина сообщения n=3 22 Среднее число двоичных символов кода Шеннона-Фано, приходящихся
- 34. Условие эффективного кодирования: max H(Z): log2 m ≥ lср ≥ H(Z) + ε, но H(Z) Следовательно,
- 35. Рассмотрим сообщения, образованные с помощью алфавита, состоящего из 2-х букв Z1 и Z2 с вероятностями появления
- 36. В этом случае средняя длина кодового слова составляет: с =1,81 бит. На один символ алфавита источника
- 37. От указанного недостатка свободна методика Хаффмена. МХ гарантирует однозначное построение кода с наименьшей для данного распределения
- 38. Расположить символы исходного алфавита А в порядке убывания вероятности. Два наименее вероятных символа алфавита А будем
- 39. Припишем символам последнего алфавита кодовые обозначения 0 (например - верхнему) и 1 (в нашем примере –
- 40. Методика Хаффмена пример 1
- 41. Методика Хаффмена пример2
- 42. Методика Хаффмена пример 2
- 44. Скачать презентацию