Содержание
- 3. Блочная диаграмма обучения с учителем
- 4. Блочная диаграмма обучения без учителя
- 8. Многослойный перцептрон.
- 9. Функция Ферми (экспоненциальная сигмоида): Рациональная сигмоида: Гиперболический тангенс:
- 10. Алгоритм метода обратного распространения ошибки: 1. Инициализация сети. Весовым коэффициентам и смещениям сети присваиваются малые случайные
- 11. Каждый нейрон состоит из двух элементов. Первый элемент – дендриты — добавляют весовые коэффициенты ко входным
- 13. Чтобы обучить нейронную сеть мы должны подготовить обучающие данные(примеры). В нашем случае, тренировочные данные состоят из
- 14. Каждый шаг обучения начинается с воздействия входных сигналов из тренировочных примеров. После этого мы можем определить
- 18. Распространение сигнала через скрытый слой. Символы Wmn представляют весовые множители связей между выходом нейрона m и
- 20. Распространение сигнала через выходной слой
- 21. На следующем шаге алгоритма, выходной сигнала сети y сравнивается с желаемым выходным сигналом z, который хранится
- 23. В середине восьмидесятых годов был разработан алгоритм обратного распространения ошибки. Идея заключается в распространении сигнала ошибки
- 26. Весовые коэффициенты Wmn, используемые для обратного распространения ошибки, равны тем же коэффициентам, что использовались во время
- 30. Когда вычисляется величина ошибки сигнала для каждого нейрона – можно скорректировать весовые коэффициенты каждого узла ввода(дендрита)
- 37. Сеть Хемминга
- 39. Алгоритм работы сети.
- 40. Сети и карты Кохонена
- 43. Инициализация сети: весовым коэффициентам сети, общее число которых равно N*M (N – размерность входных векторов, а
- 45. Скачать презентацию