Содержание
- 2. ОСНОВНЫЕ ТЕМЫ ЛЕКЦИИ КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОР-МАЦИИ ЭНТРОПИЯ СЛОЖНЫХ СООБЩЕНИЙ
- 3. КОЛИЧЕСТВЕННАЯ ОЦЕНКА ИНФОРМАЦИИ Всякая информация получается потребителем после принятия сообщения, т.е. в результате опыта. Сообщение, получаемое
- 4. Пусть опыт имеет два исхода Х1 и Х2 с вероятно-стями Р(Х1) и Р(Х2). Например, результат контроля
- 5. В общем случае источник может передавать "n" независимых и несовместимых сообщений Х1, Х2,... Хn , с
- 6. Более удобной является логарифмическая мера КОЛИЧЕСТВА ИНФОРМАЦИИ: Это выражение характеризует количество информации в сообщении Xi. Оно
- 7. Количество информации и неопределенность для всей совокупности случайных сообщений можно получить усреднением по всем событиям: Эти
- 8. Несмотря на совпадение формул для энтропии и количества информации, они принципиально различны. ЭНТРОПИЯ H(X), выражающая среднюю
- 9. Количество получаемой информации I(X) равно численно энтропии Н(Х), которая имела место относительно источника сообщения до передачи
- 10. Единицы измерения КОЛИЧЕСТВА ИНФОРМАЦИИ и ЭНТРОПИИ зависят от выбора основания логарифма. При использовании десятичных логарифмов количество
- 11. СВОЙСТВА ЭНТРОПИИ ДИСКРЕТНЫХ СООБЩЕНИЙ ⮚ Энтропия есть величина вещественная, неотрицательная и ограниченная (если учесть, что: 0
- 12. ЭНТРОПИЯ СЛОЖНЫХ СООБЩЕНИЙ Реально наблюдаемые случайные процессы могут быть НЕЗАВИСИМЫМИ или ВЗАИМОСВЯ-ЗАННЫМИ. Например, бросание игральной кости
- 13. Следующий пример зависимых событий: на трамвайной остановке возле нашего дома остана-вливаются трамваи трех маршрутов. Условно назовем
- 14. Допустим, при подходе к остановке отошел трамвай «маршрута 2». Вероятность того, что следующим подойдет трамвай этого
- 15. Сумма вероятностей каждой строки матрицы равна 1, потому что независимо от исхода первого опыта, во втором
- 16. Вероятность совместного появления двух событий равна произведению условной вероятности на безусловную вероятность события в первом опыте:
- 17. Энтропия (неопределенность) появления в первом опыте события V, а во втором, связанном с ним опыте, события
- 18. СВОЙСТВА ЭНТРОПИИ СЛОЖНЫХ СООБЩЕНИЙ ⮚ При статистически независимых сообщениях U и V совместная энтропия равна сумме
- 19. Вопросы для экспресс-контроля 1. В чем различие и сходство терминов КОЛИ-ЧЕСТВО ИНФОРМАЦИИ и ЭНТРОПИЯ? 2. Единицы
- 21. Скачать презентацию