Нейронные сети. Введение

Содержание

Слайд 2

Физиологический нейрон

Физиологический нейрон

Слайд 3

Блочная диаграмма нервной системы возбуждение Рецепторы Нейронная Сеть эффекторы Отклик

Блочная диаграмма нервной системы

возбуждение

Рецепторы

Нейронная
Сеть

эффекторы

Отклик

Слайд 4

1942 – Мак-Каллок – Питц 1948 – Н.Винер – «Кибернетика» 1949

1942 – Мак-Каллок – Питц
1948 – Н.Винер – «Кибернетика»
1949 – Хебб


1949 – Аттли - обученная нейросеть
1960 – алгоритм обучения по наименьшим квадратам (Least mean-square - LMS)
1960-1970 – Розенблат – обучение перцептрона
1969 – Минский – Пайперт – фундаментальное ограничение линейных нейросетей.
Слайд 5

1967 – Кован – сигмоидальная функция 1980 – Теория Адаптивного Резонанса

1967 – Кован – сигмоидальная функция
1980 – Теория Адаптивного Резонанса –

АRТ
1970-1980 – самоорганизация – Карты Кохонена
1980 – Гросберг – конкурентное обучение
1982 – Хопфилд – функция энергии для описания рекуррентных сетей
1986 – Алгоритм обратного распространения по ошибке
Слайд 6

Нейроны Хебба Маккалока – Питца Сигмоидный Гросберга Радиальный WTA

Нейроны

Хебба
Маккалока – Питца
Сигмоидный
Гросберга
Радиальный
WTA

Слайд 7

Формальная модель нейрона S f(s) b w1 wn Σ

Формальная модель нейрона

S

f(s)

b

w1

wn

Σ

Слайд 8

Формальная модель нейрона Σ

Формальная модель нейрона

Σ

Слайд 9

Активационные функции Линейные. Нелинейные.

Активационные функции

Линейные.
Нелинейные.

Слайд 10

Модель нейрона Мак-Калока – Питца y y S S

Модель нейрона Мак-Калока – Питца

y

y

S

S

Слайд 11

w1=0.1, q=0, k=0.1 S(i)=sum(X(:,i).*W); Если ((S(i)+q)*k)>=0 , y(i)=1, иначе y(i)=0 W2=0.3 w2=-0.1

w1=0.1, q=0, k=0.1

S(i)=sum(X(:,i).*W);
Если ((S(i)+q)*k)>=0 , y(i)=1, иначе y(i)=0
W2=0.3 w2=-0.1

Слайд 12

k=0.1, w1=0.1, w2=0.3 S(i)=sum(X(:,i).*W); Если ((S(i)+q)*k)>=0 , y(i)=1, иначе y(i)=0 q=0, q=3

k=0.1, w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W);
Если ((S(i)+q)*k)>=0 , y(i)=1, иначе y(i)=0
q=0, q=3

Слайд 13

Кусочно-линейная Y S

Кусочно-линейная

Y

S

Слайд 14

Сигмоидальная Y S

Сигмоидальная

Y

S

Слайд 15

k=0.1, w1=0.1, w2=0.3 S(i)=sum(X(:,i).*W); y(i)=1/(1+exp((-S(i)+q)/k)); q=0, q=2,

k=0.1, w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W);
y(i)=1/(1+exp((-S(i)+q)/k));
q=0, q=2,

Слайд 16

q=0, , w1=0.1, w2=0.3 S(i)=sum(X(:,i).*W); y(i)=1/(1+exp((-S(i)+q)/k)); k=0.1, k=0.5

q=0, , w1=0.1, w2=0.3

S(i)=sum(X(:,i).*W);
y(i)=1/(1+exp((-S(i)+q)/k));
k=0.1, k=0.5

Слайд 17

RBF (WTA) Y(r)=e(-r2/k) r=||X-W|| k=1 k=5

RBF (WTA)

Y(r)=e(-r2/k)
r=||X-W||
k=1 k=5

Слайд 18

Нейронная сеть Число слоев/число нейронов по слоям Обратные связи Активационные функции

Нейронная сеть

Число слоев/число нейронов по слоям
Обратные связи
Активационные функции
Число входов
Число выходов
Алгоритм настройки

весов(обучения)
Тип задачи, решаемой сетью
Слайд 19

Слой нейросети Группа нейронов сети: Общие функции (задачи) Общие внешние связи Общие входы Зачем выделять слой?

Слой нейросети

Группа нейронов сети:
Общие функции (задачи)
Общие внешние связи
Общие входы
Зачем выделять слой?

Слайд 20

Режимы функционирования нейросетей Обучение Работа

Режимы функционирования нейросетей

Обучение
Работа

Слайд 21

Формальная модель сети f(X)=Net(X)

Формальная модель сети
f(X)=Net(X)

Слайд 22

Архитектуры НС (классификация) Тип обучения С учителем Без учителя Класс алгоритмов

Архитектуры НС (классификация)

Тип обучения
С учителем
Без учителя
Класс алгоритмов оучения
Число слоев:
Однослойные
многослойные.
Обратные связи:
Нет

– сети прямого распространения
Есть – рекуррентные сети.
Слайд 23

Однослойная сеть y1 y2 yp Слой 1

Однослойная сеть

y1

y2

yp

Слой 1

Слайд 24

Многослойная сеть (2 слоя) yk Слой 1 Слой 2 Слой 0

Многослойная сеть (2 слоя)

yk

Слой 1

Слой 2

Слой 0

W1

W2

1

2

m

1

2

k

x1

x2

xn

Слайд 25

Сеть прямого распространения 1 2 i m x1 x2 x3 y1 ym Слой 0 Слой 1

Сеть прямого распространения

1

2

i

m

x1 x2 x3

y1 ym

Слой 0
Слой 1

Слайд 26

Многослойная сеть прямого распространения (к слоев)

Многослойная сеть прямого распространения (к слоев)

Слайд 27

Рекуррентные сети y1 y2 yn

Рекуррентные сети

y1

y2

yn

Слайд 28

Многослойные рекуррентные сети

Многослойные рекуррентные сети

Слайд 29

Виды обучения С учителем T={(Xi,di)}, i=1,N Xi- входной вектор di –

Виды обучения

С учителем
T={(Xi,di)}, i=1,N
Xi- входной вектор
di – выходной вектор
Без учителя
T={Xi}, i=1,N
Xi-

входной вектор
Слайд 30

Классы алгоритмов обучения нейронных сетей «Правило Хебба» Коррекция по ошибке Стохастическое

Классы алгоритмов обучения нейронных сетей

«Правило Хебба»
Коррекция по ошибке
Стохастическое обучение
«Правило соревнования»

– конкурентное обучение
Слайд 31

Вселенский разум

Вселенский разум

Слайд 32

Вопрос Вариант 1 Вычислить реакцию порогового нейрона с W=[ 1 ,-1]

Вопрос

Вариант 1

Вычислить реакцию порогового нейрона с W=[ 1 ,-1] на входное

воздействие Х=[0 ,1] c порогом Θ=0

Вариант 2

Вычислить реакцию сигмоидного нейрона с W=[ -1 ,1] на входное воздействие Х=[1 ,1] c порогом Θ=0 и наклоном k=1

Вариант 3

Вычислить реакцию линейного нейрона с W=[ -1 ,-1] на входное воздействие Х=[0 ,1] c порогом Θ=0 и наклоном k=1

Вариант 4

Вычислить реакцию радиального нейрона с W=[ 1 , 1] на входное воздействие Х=[0 ,1] c радиусом k=1

Слайд 33

литература Комарцова Л.Г. Максимов А.В. Нейрокомпьютеры – М.:Из-во МГТУ - 2004.

литература

Комарцова Л.Г. Максимов А.В. Нейрокомпьютеры – М.:Из-во МГТУ - 2004.