Содержание
- 2. Содержание курса «Компьютерные методы обработки информации» Раздел 1. «Базовые методы компьютерной обработки информации» Принципы построения систем
- 3. Содержание лекции Обучение с учителем. Пространство признаков. Классы. Обучающая и тестовая выборки. Гипотеза компактности. Методы ближайших
- 4. Обучение с учителем Компоненты задачи: пространство объектов A, множество классов С={c1, …,cl}, разбиение объектов по классам:
- 5. Задача синтеза классификатора. Как описать «наилучшее разбиение»? Дополнительные компоненты задачи: Тестовая выборка с′Y(x): x∈Y |→ с∈С,
- 6. Задача синтеза классификатора. Как описать «наилучшее разбиение»? Дополнительные компоненты задачи: Тестовая выборка с′Y(x): x∈Y |→ с∈С,
- 7. Синтез классификатора. Анализ постановки задачи Требуется: Определить оператор оптимального синтеза θ, доставляющий минимум критерию JX(fX): θ:
- 8. Упрощение задачи: обучение классификатора вместо синтеза классификатора Дополнительные компоненты задачи обучения: Класс классификаторов FX Класс алгоритмов
- 9. Упрощение задачи: обучение классификатора вместо синтеза классификатора Дополнительные компоненты задачи обучения: Класс классификаторов FX Класс алгоритмов
- 10. Проблема сложности классификатора Ф(A,L) = J(A,L) → min(L∈F(x)) x f(x)
- 11. Проблема сложности классификатора Ф(A,L) = J(A,L) → min(L∈F(x)) x f(x)
- 12. Регуляризация по сложности Ф(A,L)=J(A,L)+α×Q(L)→min(L∈F(x)) x f(x)
- 13. Регуляризация ⇒ сегментация с потерями Ф(A,L)=J(A,L)+α×Q(L)→min(L∈F(x)) x f(x)
- 14. Упрощение задачи: наблюдаемый риск вместо ожидаемого Проблема: наблюдаемый риск JX(θсX) имеет глобальный минимум в точке fX
- 15. Упрощение задачи: обучение классификатора заданного класса с регуляризацией по сложности Требуется: минимизировать наблюдаемый риск с регуляризацией
- 16. GX Источники основных идей Принцип эмпирической неразличимости алгоритмов, дающих одинаковые результаты на объектах обучающей выборки. Вапник
- 17. Источники основных идей Принцип компактности: более близкие объекты должны с большей вероятностью принадлежать к одному классу.
- 18. О чем умолчал Учитель Важное замечание: наблюдаемые данные действительно искажены, а мы пытаемся вскрыть их истинную
- 19. О чем умолчал Учитель Важное замечание: наблюдаемые данные действительно искажены, а мы пытаемся вскрыть их истинную
- 20. Источники основных идей сX fX Возможность 01 Возможность 10 случайные опыты детерминированная возможность классов на выборке
- 21. Следующие несколько разделов мы изучаем по книге
- 22. Статистическое обучение Пример. Один признак
- 23. Статистическое обучение Пример. Два признака
- 24. Напоминание. Функции распределения Площадь под функцией распределения всегда = 1, поскольку хоть какое-то значение случайная величина
- 25. Напоминание. Нормальное распределение
- 26. Статистическое обучение Плотности распределения и случайные выборки
- 27. Статистическое обучение Случай двух классов
- 28. Статистическое обучение Случай двух классов
- 29. Статистическое обучение Случай двух классов. Ошибки 1 и 2 рода
- 30. Статистическое обучение
- 31. Статистическое обучение Случай двух классов
- 32. Статистическое обучение Случай двух классов. Байесовское правило Вероятность ошибки определяется выражением:
- 33. Статистическое обучение Случай двух классов. Байесовское правило
- 34. Статистическое обучение Случай двух классов. Байесовское правило. Отношение правдоподобия Ожидаемый (средний) риск при принятии решения:
- 35. Статистическое обучение Случай двух классов. Байесовское правило. Отношение правдоподобия Ожидаемый (средний) риск при принятии решения:
- 36. Статистическое обучение Байесовское решающее правило
- 37. Статистическое обучение Байесовское решающее правило
- 38. Статистическое обучение Байесовское решающее правило
- 39. Статистическое обучение Байесовское решающее правило
- 40. Статистическое обучение Байесовское решающее правило
- 41. Статистическое обучение Байесовское решающее правило 2 класса, одинаковые дисперсии
- 42. Статистическое обучение Байесовское решающее правило 4 класса, одинаковые дисперсии
- 43. Статистическое обучение Байесовское решающее правило 4 класса, одинаковые дисперсии по классам, различные по признакам
- 44. Статистическое обучение Байесовское решающее правило, различные дисперсии по классам
- 45. Линейные решающие правила
- 46. Линейные решающие правила Случай двух классов. Минимизация квадратичной ошибки
- 47. Линейные решающие правила Случай двух классов. Линейный дискриминант Фишера :
- 48. Линейные решающие правила Случай нескольких классов. Набор линейных разделителей
- 49. Линейные решающие правила Случай нескольких классов. Набор линейных разделителей
- 50. Кластерный анализ Выводы: Нужно подбирать подходящие метрики Нужно искать удачные процедуры группировки
- 51. Напоминание: Метрики (расстояния) Метрики в нормированных линейных пространствах Единичный шар в метриках Минковского:
- 52. Кластерный анализ
- 53. Кластерный анализ
- 54. Кластерный анализ Метод k средних (количество классов k считается известным) Это одна из наиболее известных итеративных
- 55. Кластерный анализ Метод k средних (количество классов k считается известным) Пример:
- 56. Кластерный анализ Метод k средних (количество классов k считается известным)
- 57. Кластерный анализ Метод k средних (количество классов k считается известным)
- 58. Кластерный анализ Растущий нейронный газ Нейронный газ осуществляет адаптивную кластеризацию входных данных. Начиная всего с двух
- 59. Алгоритм обучения растущего нейронного газа . Инициализация: создать два узла с векторами весов, разрешенными распределением входных
- 60. Алгоритм обучения растущего нейронного газа Если два лучших нейрона s и t соединены, обнулить возраст их
- 61. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 62. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 63. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 64. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 65. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 66. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 67. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 68. Пример обучения растущего нейронного газа DemoGNG (Version 1.5) http://wwwold.ini.ruhr-uni-bochum.de/VDM/research/gsn/DemoGNG/GNG_p.html
- 69. Свойства растущего нейронного газа Адаптивная кластеризация входных данных Количество кластеров определяется исходя из топологии и распределения
- 70. Пример классификации на основе растущего нейронного газа в задаче цветовой сегментации изображения Цветовое пространство: CIE Lab
- 71. Кластерный анализ Иерархическая группировка
- 72. Кластерный анализ Иерархическая группировка 3 примера
- 73. Кластерный анализ Иерархическая группировка "Ближайший сосед"
- 74. Кластерный анализ Иерархическая группировка "Дальний сосед"
- 75. Кластерный анализ Иерархическая группировка Минимальное покрывающее дерево
- 76. Приложение: Биометрия В биометрических системах для распознавания человека используется совокупность биометрических характеристик, основанных на биологических особенностях
- 77. Процесс биометрической верификации Алгоритм построения шаблона Алгоритм сравнения Критерии качества: FAR(False Accept Rate) – вероятность принятия
- 78. Процесс биометрической верификации Биометрия Чем меньше площадь под графиком, тем лучше качество
- 79. Процесс биометрической идентификации Алгоритм построения шаблона Алгоритм сравнения База шаблонов Критерий качества Pn вероятность попадания в
- 80. Процесс биометрической идентификации Биометрия
- 82. Скачать презентацию