Измерение информации. Информационная характеристика источника двоичных сообщений

Содержание

Слайд 2

Введение Измерение – нахождение значения физической величины опытным путем с помощью

Введение

Измерение – нахождение значения физической величины опытным путем с помощью специальных

технических средств.
Мера – средство измерения, предназначенное для воспроизведения заданного значения физической величины (например, гиря).
Слайд 3

Введение Рис. 1.1 Меры информации

Введение

Рис. 1.1 Меры информации

Слайд 4

Введение В синтаксическом подходе выделяют: Структурная теория рассматривает дискретное строение массивов

Введение

В синтаксическом подходе выделяют:
Структурная теория рассматривает дискретное строение массивов информации и

их измерение простым подсчетом информационных элементов (квантов).
Статистическая теория оперирует понятием энтропии как меры неопределенности, учитывающей вероятность появления и, следовательно информативность тех или иных сообщений.
Слайд 5

1.1. Синтаксические меры информации. Структурная теория. При использовании структурной теории (структурных

1.1. Синтаксические меры информации. Структурная теория.

При использовании структурной теории (структурных мер)

учитывается только дискретное строение данного информационного комплекса, в особенности количество содержащихся в нем информационных элементов (квантов информации), связей между ними или комбинацией из них.
Слайд 6

1.1.1. Геометрическая мера Определение количества информации геометрическим методом сводится к измерению

1.1.1. Геометрическая мера

Определение количества информации геометрическим методом сводится к измерению длины

лини, площади или объёма геометрической модели данного информационного комплекса в количестве дискретных единиц – квантов.
Геометрическим методом определяется потенциальное (максимально возможное) количество информации или информационная ёмкость исследуемого комплекса.
Слайд 7

Пусть информация отражается полным комплексом XTN. Если отсчеты по осям X,

Пусть информация отражается полным комплексом XTN.
Если отсчеты по осям X, T,

N осуществляются соответственно через интервалы Δx, Δt, Δn соответственно, то непрерывные координаты распадаются на кванты, количество которых определяется как
mx=X/Δx , mT=T/Δt , mN=N/Δn
Тогда количество информации в полном комплексе XTN равно
I=mx•mT•mN=X•T•N/(Δx•Δt•Δn) [ед.]

1.1.1. Геометрическая мера

Слайд 8

К этой мере целесообразно прибегать тогда, когда требуется оценить возможность передачи

К этой мере целесообразно прибегать тогда, когда требуется оценить возможность передачи

информации при помощи различных комбинаций информационных элементов.

1.1.2. Комбинаторная мера

Слайд 9

В комбинаторике рассматривают различные виды соединения из n элементов по m

В комбинаторике рассматривают различные виды соединения из n элементов по m

элементов, например:
сочетания Cnm=n!/[m!•(n-m)!]
перестановки Pm=m!
размещения Anm=n!/(n-m)!=Cnm•Pm

1.1.2. Комбинаторная мера

Слайд 10

Количество информации в комбинаторной мере вычисляется как количество комбинаций информационных элементов.

Количество информации в комбинаторной мере вычисляется как количество комбинаций информационных элементов.
Т.е.

производится оценка структурного разнообразия, а не простой подсчет квантов, как в геометрической мере.
Количество информации при том же количестве элементов теперь многократно увеличивается.

1.1.2. Комбинаторная мера

Слайд 11

Например, при сочетаниях из n=10 по m=0, 1, 2, 3 …9,

Например, при сочетаниях из n=10 по m=0, 1, 2, 3 …9,

10 элементов имеем
C=10!/0!(10-0)!+10!/1!(10-1)!+…+10!/10!(10-10)!=1+10+45+120+210+252+210+120+45+10+1=1024 комбинации
Перестановка тех же элементов дает:
P=10!=3 682 800 комбинаций.

1.1.2. Комбинаторная мера

Слайд 12

Не всегда все возможные комбинации составляют действительные степени свободы данной системы.

Не всегда все возможные комбинации составляют действительные степени свободы данной системы.
Тогда

расчет ведется по реализуемым комбинациям.

1.1.2. Комбинаторная мера

Слайд 13

Из теории вероятностей: Проводится некий опыт, исход которого называется событием. Например,

Из теории вероятностей:
Проводится некий опыт, исход которого называется событием.
Например, при бросании

монеты имеем 2 состояния: А – появление «орла», В – появление «решки».
Разные события обладают разной степенью возможности, т.о., исход любого опыта – случайное событие.

1.1.3. Аддитивная мера Хартли

Слайд 14

Из теории вероятностей: Меру случайности называют вероятностью и обозначают P(A). Если

Из теории вероятностей:
Меру случайности называют вероятностью и обозначают P(A).
Если P(A)=1, то

имеем достоверное событие, если P(A)=0 – невозможное событие; для всех остальных событий справедливо 0

1.1.3. Аддитивная мера Хартли

Слайд 15

Из теории вероятностей: Событие A называется независимым от события B, если

Из теории вероятностей:
Событие A называется независимым от события B, если P(A)

не зависит от того, произошло B или нет.
В противном случае рассматривают условную вероятность P(A/B) – вероятность наступления события A при условии, что событие B уже произошло.
Например, вероятность попадания снаряда в одну и ту же воронку.

1.1.3. Аддитивная мера Хартли

Слайд 16

Из теории вероятностей: События A и B называют несовместными, если в

Из теории вероятностей:
События A и B называют несовместными, если в результате

опыта они никогда не могут появиться одновременно.
Например, появление «орла» и «решки» одновременно при бросании монеты.

1.1.3. Аддитивная мера Хартли

Слайд 17

Из теории вероятностей: Суммой событий A и B называется событие, состоящее

Из теории вероятностей:
Суммой событий A и B называется событие, состоящее в

появлении хотя бы одного из них.
Произведение событий A и B - событие, состоящее в появлении обоих.

1.1.3. Аддитивная мера Хартли

Слайд 18

Из теории вероятностей: Совокупность событий составляют полную группу, если в результате

Из теории вероятностей:
Совокупность событий составляют полную группу, если в результате опыта

непременно должно произойти одно из них.
Например, появление любой цифры от 1 до 6 при бросании игральной кости.
Суммарная вероятность всех входящих в полную группу событий равна 1.

1.1.3. Аддитивная мера Хартли

Слайд 19

Рассмотрим 2 независимых опыта с числом равновероятных исходов N1 и N2

Рассмотрим 2 независимых опыта с числом равновероятных исходов N1 и N2
Предположим,

что в результате наблюдения за исходами этих опытов получено количество информации I1=f(N1) и I2=f(N2)
Пусть оба опыта проводятся одновременно, тогда общее число исходов равно N=N1•N2
При этом получаемое количество информации I=I1+I2=f(N1•N2)

1.1.3. Аддитивная мера Хартли

Слайд 20

Искомая функция f(*) должна удовлетворять условию: f(N1)+f(N2)=f(N1•N2) Единственной функцией удовлетворяющей этому

Искомая функция f(*) должна удовлетворять условию: f(N1)+f(N2)=f(N1•N2)
Единственной функцией удовлетворяющей этому условию

является f(*)=loga(*)
Формула Р.Хартли (1928 г.) I=logaN

1.1.3. Аддитивная мера Хартли

Слайд 21

В зависимости от выбора основания логарифма получаем следующие меры количества информации:

В зависимости от выбора основания логарифма получаем следующие меры количества информации:


a=e I=ln N [нит] – натуральные единицы
a=10 I=lg N [дит] – десятичные единицы
a=2 I=ld N [бит] –двоичные единицы
(1 бит информации от английских слов binary digit)

1.1.3. Аддитивная мера Хартли

Слайд 22

Иной подход к выводу формулы Хартли: Пусть передаваемое сообщение имеет вид

Иной подход к выводу формулы Хартли:
Пусть передаваемое сообщение имеет вид числа,

представленного в той или иной системы счисления.
Одно и то же количество разрядов в разных системах счисления может передавать разное число состояний отображаемого объекта: N=mn ,
где N – число возможных отображаемых состояний;
m – основание системы счисления;
n – число разрядов в сообщении (длина разрядной сетки).
Например, при m=100 и n=2 имеем 100 чисел от 00 до 99, а при m=2 и n=2 всего 4 числа: 00, 01, 10 и 11

1.1.3. Аддитивная мера Хартли

Слайд 23

В случае, когда все N состояний равновероятны, получаем следующую формулу для

В случае, когда все N состояний равновероятны, получаем следующую формулу для

оценки количества информации:
I=logaN=n•logam
Если a=m, то I=n, т.е. количество информации равно объему данных.
Эту меру можно назвать компьютерной, т.к. при a=m=2 (двоичная система счисления) и n=1 (один разряд) имеем единицу измерения 1 бит, от которой производными являются байт, килобайт, мегабайт и т.д.

1.1.3. Аддитивная мера Хартли

Слайд 24

При статистическом (вероятностном) подходе информация рассматривается как сообщения о случайных событиях

При статистическом (вероятностном) подходе информация рассматривается как сообщения о случайных событиях

– исходах некоторого опыта, а количество информации ставится в зависимость от априорных вероятностей.
При бросании кубика: вероятность встретить один знак (одну из цифр от 1 до 6) в произвольный момент времени совпадает с относительной частотой этого знака во всей последовательно знаков.

1.2. Синтаксическая мера. Статистическая теория

Слайд 25

Последовательность знаков с таким свойством называется шенноновским сообщением. Поскольку сами знаки

Последовательность знаков с таким свойством называется шенноновским сообщением.
Поскольку сами знаки и

содержащаяся в них информация известны заранее, существенным является сам факт, какой именно знак выбран.

1.2. Синтаксическая мера. Статистическая теория

Слайд 26

Упорядоченным называется состояние системы, осуществляемое относительно малым числом способов, а беспорядочным

Упорядоченным называется состояние системы, осуществляемое относительно малым числом способов, а беспорядочным

– состояние, реализуемое относительно большим числом способов.

1.2.1. Понятие энтропии

Слайд 27

Рассмотрим в качестве системы сосуд, разделенный проницаемой перегородкой на две равные

Рассмотрим в качестве системы сосуд, разделенный проницаемой перегородкой на две равные

части и содержащий 4 молекулы (рис. 1.2)

1.2.1. Понятие энтропии

Рис. 1.2. Распределение четырех молекул в двух зонах

Слайд 28

1.2.1. Понятие энтропии Таблица 1.1 Распределение четырех молекул в двух зонах

1.2.1. Понятие энтропии

Таблица 1.1 Распределение четырех молекул в двух зонах

Слайд 29

Формула: K=N!/(N1!•N2!)=N!/[N1!•(N-N1)!] С увеличением числа молекул различия в вероятностях будут резко

Формула:
K=N!/(N1!•N2!)=N!/[N1!•(N-N1)!]
С увеличением числа молекул различия в вероятностях будут резко возрастать (таблица

1.2)

1.2.1. Понятие энтропии

Слайд 30

1.2.1. Понятие энтропии Таблица 1.2. Распределение N молекул в двух зонах

1.2.1. Понятие энтропии

Таблица 1.2. Распределение N молекул в двух зонах

Слайд 31

Вероятность скопления N молекул газа в одной половине сосуда объемом 1

Вероятность скопления N молекул газа в одной половине сосуда объемом 1

см3 можно оценить следующим образом:
для одной молекулы P1=0,5 (да/нет)
при нормальных условиях в 1 см3 содержится L=2,7•1019 молекул газа (число Лошмидта)
Тогда для N молекул имеем PN=P1N=0,51=2-1

1.2.1. Понятие энтропии

Слайд 32

Второй закон термодинамики: Природа стремится от состояний менее вероятных к состояниям

Второй закон термодинамики:
Природа стремится от состояний менее вероятных к состояниям более

вероятным (Л. Больцман).

1.2.1. Понятие энтропии

Слайд 33

Пример: Если взять 4-разрядные двоичные числа, то в 6 комбинациях из

Пример:
Если взять 4-разрядные двоичные числа, то в 6 комбинациях из 16

возможных имеем равное количество 0 и 1 (табл. 1.3)

1.2.1. Понятие энтропии

Таблица 1.3. Распределение 0 и 1 в двоичных числах

Слайд 34

Энтропия в термодинамике – количественная мера неупорядоченности, мера вероятности осуществления какого-либо

Энтропия в термодинамике – количественная мера неупорядоченности, мера вероятности осуществления какого-либо

состояния системы.
В физику понятие энтропии ввел Рудольф Клаузиус (19 в.).
Л. Больцман использовал это понятие для определения меры необратимого рассеяния энергии, что позволило строго математически сформулировать второй закон термодинамики.

1.2.1. Понятие энтропии

Слайд 35

Статистический смысл второго закона (начала) термодинамики: Макроскопическое состояние газа с некоторыми

Статистический смысл второго закона (начала) термодинамики:
Макроскопическое состояние газа с некоторыми значениями

параметров представляет собой смену микроскопических состояний, которые отличаются одно от другого нахождением одних и тех же молекул в разных частях объема и перераспределением энергии между этими молекулами.

1.2.1. Понятие энтропии

Слайд 36

В соответствии со вторым законом для замкнутого пространства (изолированной системы) энтропия

В соответствии со вторым законом для замкнутого пространства (изолированной системы) энтропия

равна
S=-1/N•Σni ln(ni/N)=-Σpi ln pi
где N-общее число молекул в системе;
pi – вероятность того, что ni молекул имеют скорости vi+Δvi

1.2.1. Понятие энтропии

Слайд 37

Иная трактовка - энтропия как мера вероятности осуществления какого-либо состояния системы:

Иная трактовка - энтропия как мера вероятности осуществления какого-либо состояния системы:
S=-Σpi

ln pi =k lnW
где pi – вероятность нахождения молекул в i-й ячейке фазового пространства; W – термодинамическая вероятность данного макроскопического состояния системы или число соответствующих состояний; k=1,38•10-23 Дж/К – постоянная Больцмана.

1.2.1. Понятие энтропии

Слайд 38

Третий смысл энтропии получается из понятия упорядоченности: коль скоро неупорядоченные состояния

Третий смысл энтропии получается из понятия упорядоченности: коль скоро неупорядоченные состояния

системы достижимы большим числом способов и поэтому более вероятны, то энтропия оказывается и мерой неупорядоченности системы.

1.2.1. Понятие энтропии

Слайд 39

Энтропия в теории информации – количественная мера неопределенности. Трактовку ввел в

Энтропия в теории информации – количественная мера неопределенности.
Трактовку ввел в 1948

г. Клод Шеннон

1.2.2. Мера Шеннона

Слайд 40

Главным свойством рассмотренных опытов является неопределенность, т.к. каждый исход – случайное

Главным свойством рассмотренных опытов является неопределенность, т.к. каждый исход – случайное

событие.
Важно уметь численно оценить степень неопределенности, чтобы иметь возможность объективного сравнения различных опытов.
Степень неопределенности опыта, имеющего N исходов, зависит от N: если при N=1 исход опыта вообще не является случайным, то по мере возрастания N предсказание того или иного исхода становится все более проблематичным.

1.2.2. Мера Шеннона

Слайд 41

Для опыта с N равновероятными исходами x1, x2,…xN (полная группа случайных

Для опыта с N равновероятными исходами x1, x2,…xN (полная группа случайных

событий) таблица вероятностей имеет вид:

1.2.2. Мера Шеннона

Слайд 42

Рассматривая количество информации как меру неопределенности такого опыта в соответствии с

Рассматривая количество информации как меру неопределенности такого опыта в соответствии с

формулой Хартли имеем
I= ld N [бит]
При этом каждый исход имеет неопределенность
Ik=(1/N) ld N=-(1/N) ld (1/N) [бит]

1.2.2. Мера Шеннона

Слайд 43

В общем случае для опыта с N неравновероятными исходами: Мера неопределенности:

В общем случае для опыта с N неравновероятными исходами:
Мера неопределенности:
H(X)=-p1 ld

p1-p2ld p2 -…-pN ld pN [бит]

1.2.2. Мера Шеннона

Слайд 44

H(X) – энтропия случайного опыта или просто энтропия. H(X)=-Σpi ld pi

H(X) – энтропия случайного опыта или просто энтропия.
H(X)=-Σpi ld pi при

Σpi=1
Это основное определение теории информации Шеннона.
Количественно выражается как средняя функция каждого из возможных исходов опыта.
Формула Хартли является предельным случаем формулы Шеннона.

1.2.2. Мера Шеннона

Слайд 45

Единице измерения энтропии 1 бит соответствует опыт, имеющий N=2 равновероятных исходов

Единице измерения энтропии 1 бит соответствует опыт, имеющий N=2 равновероятных исходов


H(X)=-1/2 ld ½-1/2 ld ½=1/2+1/2=1 [бит]

1.2.2. Мера Шеннона

Слайд 46

Сопоставление термодинамической формулы (Больцмана) и информационной (Хартли и Шеннона) трактовок понятия

Сопоставление термодинамической формулы (Больцмана) и информационной (Хартли и Шеннона) трактовок понятия

энтропии приводит к фундаментальному соотношению фон Неймана, связывающему энергию и информацию:
E0=k T ln2 [Дж/бит]
Где E0 – количество энергии, требуемое для обработки 1 бита информации при заданном значении термодинамической температуры, k – постоянная Больцмана

1.2.2. Мера Шеннона

Слайд 47

H(X) – величина вещественная и неотрицательная H(X)min=0 когда pk=1, pi=1 H(X)max=ld

H(X) – величина вещественная и неотрицательная
H(X)min=0 когда pk=1, pi=1
H(X)max=ld N когда

pi=1/N
H(X)minH(X)>=H(f(X)) при любой функции f(X)
Для двух независимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+H(Y)
Для двух зависимых опытов X и Y, осуществляемых одновременно H(X,Y)=H(X)+HX(Y)=H(Y)+HY(X), где HX(Y) – условная энтропия Y

1.2.3. Свойства энтропии

Слайд 48

1.2.3. Свойства энтропии Рис.1.3 Энтропия опыта с двумя исходами

1.2.3. Свойства энтропии

Рис.1.3 Энтропия опыта с двумя исходами

Слайд 49

Условная энтропия HY(X) является мерой остаточной неопределенности. 1.2.4. Количество информации Рис.1.4. Упрощенная схема передачи сообщений

Условная энтропия HY(X) является мерой остаточной неопределенности.

1.2.4. Количество информации

Рис.1.4. Упрощенная схема

передачи сообщений
Слайд 50

Пусть источник сообщений (испытатель), наблюдая за случайными исходами, генерирует и передает

Пусть источник сообщений (испытатель), наблюдая за случайными исходами, генерирует и передает

исходное сообщение X, характеризуемое энтропией H(X).
После прохождения через канал связи это сообщение преобразуется в принятое (конечное) сообщение Y, характеризуемое энтропией H(Y), которое и воспринимает получатель.
Т.к. получатель не имеет прямого доступа к опыту, он оценивает его исходы только по сообщению Y.
В результате для получателя неопределенность ситуации уменьшилась на величину HY(X) – энтропия сообщения X при условии, что получено сообщение Y.
Разность H(X)-HY(X) называется неэнтропией (отрицательная энтропия), т.к. Определяет уменьшение энтропии за счет передачи сообщения, служит мерой количества информации при передаче сообщения.

1.2.4. Количество информации

Слайд 51

Количество информации – числовая характеристика сигнала, позволяющая оценить исходную степень неопределенности,

Количество информации – числовая характеристика сигнала, позволяющая оценить исходную степень неопределенности,

которая исчезает после выбора (получения) сообщения в виде данного сигнала.
Количество информации – мера уменьшения неопределенности ситуации (случайной величины) X, возникающая вследствие того, что становятся известными исходы другой ситуации (случайной величины) Y, усредненная по исходу X и Y:
I(X,Y)=H(X) –HY(X)

1.2.4. Количество информации

Слайд 52

Для латинского алфавита (26 букв) H=ld 26≈4,7 бит/букву Для кириллицы (33

Для латинского алфавита (26 букв) H=ld 26≈4,7 бит/букву
Для кириллицы (33 буквы)

H=ld 33≈5,05 бит/букву
С учетом вероятности (частоты) появления букв в словах того или иного языка имеем

1.2.5. Информационные характеристики некоторых языков

Слайд 53

Рассмотрим оценки, отвечающие как семантическому, так и прагматическому подходам. Это обусловлено

Рассмотрим оценки, отвечающие как семантическому, так и прагматическому подходам.
Это обусловлено тем,

что в инженерных применениях прагматические оценки сливаются с семантическими: не имеющие смысла сведения бесполезны, а бесполезные знания бессмысленны.

1.3. Семантическая и прагматическая меры информации

Слайд 54

Оценка содержательности основана на математической логике, в которой логические функции истинности

Оценка содержательности основана на математической логике, в которой логические функции истинности

m(A) и
имеют формальное сходство с функциями вероятностей наступления события P(A) и антисобытия
cond-мера содержательности сообщения z

1.3.1 Содержательность информации

Слайд 55

Логическая оценка информации: Отличие статистической оценки от логической состоит в том,

Логическая оценка информации:
Отличие статистической оценки от логической состоит в том, что

в первом случае учитываются вероятности реализации тех или иных событий (исходов опытов), а во втором – меры истинности, что приближает к оценке смысла информации.

1.3.1 Содержательность информации

Слайд 56

А.А.Харткевичем предложена мера целесообразности информации, которая определяется как изменение вероятности достижения

А.А.Харткевичем предложена мера целесообразности информации, которая определяется как изменение вероятности достижения

цели при получении дополнительной информации.
Полученная информация может не изменять вероятности достижения цели (ситуация не изменилась), тогда ее мера равна 0.
Информация может уменьшать вероятность достижения цели (дезинформативность, ситуация ухудшилась), тогда ее мера отрицательна.
Информация может увеличивать вероятность достижения цели (добротная информация, ситуация улучшилась), тогда ее мера положительна.

1.3.2 Целесообразность информации

Слайд 57

Мера целесообразности в общем виде может выть выражена соотношением I=Ld p1-ld

Мера целесообразности в общем виде может выть выражена соотношением
I=Ld p1-ld p0=ld(p1/p0)
где

p0, p1 – начальная (до получения информации) и конечная (после получения информации) вероятности достижения цели

1.3.2 Целесообразность информации

Слайд 58

1.3.2 Целесообразность информации Рис.1.5. Пути движения к цели

1.3.2 Целесообразность информации

Рис.1.5. Пути движения к цели

Слайд 59

Пусть имеется некоторое исходное состояние (точка 1), цель (точка 3), и

Пусть имеется некоторое исходное состояние (точка 1), цель (точка 3), и

некоторое промежуточное состояние (точка2).
Из точки 1 возможны 2 пути: 1-2 и 1-3.
Если пути к цели априорно неизвестны, то можно предположить, что вероятности ее достижения по обоим путям равны, т.е. P(1-2)=P(1-3)=1/2

1.3.2 Целесообразность информации