Основы нейронных сетей

Содержание

Слайд 2

Логическое моделирование процессов головного мозга • высокая скорость выполнения сложных логических

Логическое моделирование процессов головного мозга

• высокая скорость выполнения сложных логических конструкций

— предикатов с высоким параллелизмом действий;
• простота алгоритмов логических действий мозга, основанная не на численном манипулировании, а на принципах ассоциативного мышления;
• возможность решения трудно формализуемых задач, в которых совместно используются данные логически несовместимой природы, противоречивые, неполные, ≪зашумленные≫, некорректные;
• устойчивость работы, совместимая с расширением, трансформированием и совершенствованием знаний;
- надежность, обеспечиваемая наличием многих путей логического вывода и способностью восстановления утраченных данных;
• возможность построения самообучающихся и самонастраивающихся систем;
• прекрасная сочетаемость с традиционными ≪вычислительными≫ алгоритмами обработки информации, позволяющая строить сложные системы управления, - с максимальной надежностью, адаптивностью и с минимумом расходуемых ресурсов;
• отсутствие требований к ≪традиционно≫ развиваемым вычислительным средствам.
Слайд 3

Нейросеть – связь между вх и вых Нейронные сети. Класс аналитических

Нейросеть – связь между вх и вых

Нейронные сети. Класс аналитических методов,

построенных на (гипотетических) принципах обучения мыслящих существ и функционирования мозга и позволяющих прогнозировать значения некоторых переменных в новых наблюдениях по данным других наблюдений (для этих же или других переменных) после прохождения этапа так называемого обучения на имеющихся данных.
Слайд 4

Нейронная сеть Структура, обеспечивающая связь между множеством входных событий (набор переменных)

Нейронная сеть

Структура, обеспечивающая связь между множеством входных событий (набор переменных)

и множеством выходных событий (набор возможных решений).
Входные события регистрируются слоем рецепторов, возбуждающихся при превышении порогового уровня и передающих сигнал на второй слой.
Выходной слой устанавливает связь отобранных входных сигналов (событий) с набором решений.
Состоит из нейроноподобных структур, связывающих входные сигналы(воздействие) с выходными решениями.
Слайд 5

Нейрон

Нейрон

Слайд 6

Модель нейрона

Модель нейрона

Слайд 7

Модель формального нейрона.

Модель формального нейрона.

Слайд 8

Алгоритм работы блока функции преобразования Входные сигналы умножаются на коэффициенты (синаптические

Алгоритм работы блока функции преобразования

Входные сигналы умножаются на коэффициенты (синаптические веса

или просто веса). Для каждого входа - свой коэффициент.
Умноженные на веса входы суммируются.
Результат суммирования подаётся на вход функции преобразования. Обычно
.
Результат функции подаётся на выход.
Слайд 9

Функции преобразования простой порог, ленейно-пороговая функция, сигмоида,

Функции преобразования

простой порог,
ленейно-пороговая функция,
сигмоида,

Слайд 10

Работа нейросети функции f в простейшем случае суммирование и сравнение с

Работа нейросети

функции f в простейшем случае суммирование и сравнение с порогом:
величина

превышения порога является величиной возбуждения нейрона или определяет значение величины возбуждения;
в общем случае по дендритам может передаваться как возбуждающее, так и тормозящее воздействие;
в сети распознают входной (рецепторный) слой, воспринимающий внешние возбуждения, и выходной спой, определяющий решение задачи. Работа сети тактируется для имитации прохождения по ней возбуждения и управления им;
сеть работает в двух режимах: режиме обучения и режиме распознавания .
Слайд 11

Фрагмент нейросети

Фрагмент нейросети

Слайд 12

Процесс обучения нейросети Предадим синаптическим весам некоторые начальные значения. Предъявим сети

Процесс обучения нейросети

Предадим синаптическим весам некоторые начальные значения.
Предъявим сети вектор

из обучающей выборки.
Вычислим отклонения выхода сети от желаемого.
По некоторому алгоритму (зависящему от конкретной архитектуры) подстроим синаптические веса, учитывая отклонение полученное на предыдущем шаге.
Повторим шаги 2-4 пока сеть не станет выдавать ожидаемый выход на векторах из обучающей выборки или пока отклонение не станет ниже некоторого порога.