Содержание
- 2. Часть 1. Линейная регрессия (метод наименьших квадратов)
- 3. Линейная регрессия +
- 4. Линейная регрессия: метод наименьших квадратов
- 5. Ковариационная матрица
- 6. Доверительный интервал и интервал предсказания n=20 n=200
- 7. Задача: нахождение коэффициентов регрессии Решение % Создание выборки точек x = rand(500, 1); y = rand(500,
- 8. Параметры коррелированы! bm = nan(3,2000); for i = 1:2000 x = rand(500, 1); y = rand(500,
- 9. Часть 2. Нелинейная регрессия (метод наименьших квадратов)
- 10. Нелинейный метод наименьших квадратов Как правило, полученную систему решается только численными методами (не аналитическими) Методы Ньютона
- 11. Матричная запись и метод Гаусса-Ньютона Система уравнений и метод Ньютона Градиент, якобиан и гессиан МНК и
- 12. Метод Левенберга-Марквардта
- 13. Нелинейная регрессия: доверительные интервалы Исходная система уравнений Результат линеаризации в векторной форме Разложение в ряд Тейлора
- 14. Нелинейная регрессия: практическая реализация Шаг 3. Запись на MATLAB function lsqfit_ex [...данные...] b0 = [0 3
- 15. Функция optimset – настройки для lsqnonlin OPT = optimset(‘param1’, value1, ‘param2’, value2, ...); Функции lsqnonlin и
- 16. Часть 3. Системы уравнений
- 17. Решение без якобиана >> f=@(p)[p(1)^3+cos(p(2))-2; sin(p(1)^2) + log(p(2))]; >> [p,ff] = fsolve(f,[1 1]) Equation solved [...дополнительная
- 19. Скачать презентацию