Содержание
- 2. Мера неопределенности является функцией числа исходов f(n). Свойства этой функции: f(1) = 0, поскольку при п
- 3. Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит . за меру неопределенности опыта
- 4. Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна сред- ней неопределенности всех
- 5. Пример 2.1 Имеются два ящика, в каждом из которых по 12 шаров. В первом - 3
- 6. Свойства энтропии Энтропия сложного опыта, состоящего из нескольких независимых, равна сумме энтропии отдельных опытов. При прочих
- 7. Энтропия сложного опыта: Условная энтропия является величиной неотрицательной. =0 только в том случае, если любой исход
- 8. Пример 2.2 В ящике имеются 2 белых шара и 4 черных. Из ящика извлекают последовательно два
- 9. Пример 2.3 Имеется три тела с одинаковыми внешними размерами, но с разными массами x1, x2 и
- 10. Свойства информации /(а, β) > О, причем /(а, β) = 0 тогда и только тогда, когда
- 11. Информация - это содержание сообщения, понижающего неопределенность некоторого опыта с неоднозначным исходом; убыль связанной с ним
- 12. Контрольные вопросы 1)Почему в определении энтропии как меры неопределенности выбрана логарифмическая зависимость между N и n?
- 14. Скачать презентацию