Содержание
- 2. Случайная величина (СВ) и закон ее распределения (з.р.). Случайная величина обозначается заглавной буквой Х (если случайных
- 6. Существует два типа случайных величин – дискретные и непрерывные. Закон распределения случайной величины – это правило,
- 8. Пример графика функции распределения для дискретной случайной величины Х – числа выпадений герба при трехкратном бросании
- 9. Если случайная величина такова, что ее функция распределения может быть представлена в виде: (здесь t –
- 13. Функцию f(x) используют для описания поведения непрерывных случайных величин, ибо она полностью содержит всю информацию, которая
- 14. Рассмотрим дискретную случайную величину, принимающую некоторые значения на числовой оси: Определение: Математическим ожиданием дискретной случайной величины
- 15. Для случая n→ ∞ ряд должен быть сходящимся. Возникают иногда ситуации, когда ряд расходится. Тогда случайная
- 16. Определение: Математическим ожиданием непрерывной случайной величины (НСВ) называется : Математическое ожидание уже не является случайной величиной.
- 17. Математическое ожидание характеризует центр распределения случайной величины и не дает представление о разбросе возможных значений случайной
- 18. Формула, удобная для вычислений дисперсии: Определение: Стандартным отклонением случайной величины называется Дисперсию можно записать символом как
- 19. Статистический смысл дисперсии: Вычислили среднее арифметическое на основе данных наблюдений. Далее найдем среднее арифметическое квадратов отклонений
- 20. Вычислены математическое ожидание, дисперсия и стандартное отклонение для СВ, распределенной по закону Бернулли (биномиальному закону): В
- 21. Используются и некоторые другие константы распределения, позволяющие выявить особенности данного конкретного распределения. Введем некоторые них. Определения:
- 22. § 12. Наиболее часто используемые законы распределения случайных величин. Дискретные случайные величины: Для ДСВ наиболее часто
- 23. Параметр λ называют интенсивностью потока событий. Формула Пуассона имеет и самостоятельное значение, когда в задаче рассматривается
- 24. Непрерывные случайные величины: СВ Х имеет равномерный закон распределения на отрезке [a, b], если ее плотность
- 25. Непрерывная СВ Х имеет показательный (экспоненциальный) закон распределения с параметром λ, если ее плотность распределения имеет
- 26. Между законами распределения Пуассона и показательным существует тесная связь: Количество событий за любой фиксированный промежуток времени
- 27. Поток событий называется простейшим (или стационарным пуассоновским), если он одновременно обладает свойствами 1, 2, 3. Эта
- 28. График плотности нормального распределения имеет вид: σ1 Площадь под кривой сохраняет постоянное значение, равное единице, при
- 29. Стандартным нормальным распределением называется распределение нормальной случайной величины с m=0 и σ=1. Обозначение: Z ~ N(0;1).
- 30. Формула для вычисления вероятности попадания нормально распределенной СВ в заданный интервал: Справедлива формула: На основе этой
- 31. Устойчивость некоторых законов распределения. Если СВ нормально распределена: X ~ N(m;σ), то СВ Y=aX+b также подчиняется
- 32. Неравенство Чебышева. Неравенство Маркова (или лемма Чебышева) Если случайная величина Х принимает только неотрицательные значения и
- 33. Теорема Чебышева. Закон больших чисел (ЗБЧ). Введем понятие сходимости по вероятности:
- 34. Формулировка ЗБЧ в форме Чебышева П.Л. (теорема Чебышева): Если дисперсии n независимых случайных величин Х1 ,
- 35. Следствия из теоремы Чебышева: Первое следствие: Теорема Хинчина Если независимые случайные величины Х1 , Х2,…, Хn
- 36. Второе следствие: Теорема Бернулли Пусть проводится n независимых испытаний, в каждом из которых событие А может
- 37. Третье следствие: ЗБЧ может быть распространен и на зависимые случайные величины ( это обобщение принадлежит Маркову
- 38. Смысл и формулировка центральной предельной теоремы (ЦПТ). Интегральная теорема Муавра-Лапласа как следствие ЦПТ. Эта теорема утверждает,
- 39. Упрощенная математическая формулировка ЦПТ: Если X1 , X2 ,…, Xn – независимые случайные величины, для каждой
- 40. §17. Многомерная случайная величина и закон ее распределения. Пусть имеется система случайных величин (СВ), причем эта
- 41. Эта функция выражает вероятность совместного выполнения неравенств в правой части этого соотношения. С целью экономии времени
- 42. Для двумерной непрерывной случайной величины (X,Y) функция совместного распределения может быть представлена в виде: Для функции
- 43. Для независимых случайных величин Х и Y независимы события {X Для непрерывных СВ из данного соотношения,
- 44. §18. Стохастическая зависимость двух случайных величин. Ковариация и коэффициент корреляции. Если случайные величины зависимы, влияют на
- 45. Рассмотрены свойства ковариации. Вывод: ковариация не улавливает сложные виды связей между X и Y. Ковариация отслеживает
- 46. Определение. Случайные величины называются некоррелированными, если их коэффициент корреляции равен нулю. Случайные величины называются коррелированными, если
- 47. Для вычисления коэффициента корреляции между двумя количественными признаками на практике используется линейный коэффициент корреляции Пирсона:
- 48. Введем коэффициент корреляции для изучения тесноты связи между порядковыми случайными величинами. Если n объектов совокупности пронумеровать
- 49. В случае совпадения рангов при вычислении коэффициента ранговой корреляции следует брать среднее арифметическое рангов, приходящихся на
- 50. Начнем с нового раздела нумерацию параграфов заново. § 1. Случайные выборки. Первичная обработка статистических данных. Вариационные
- 51. Генеральной совокупностью (ГС) называется вся подлежащая изучению какого-либо свойства (говорят, признака) совокупность объектов. Та часть объектов,
- 52. Для того, чтобы выборка была репрезентативной (хорошо представлять элементы ГС), она должна быть отобрана случайно. Случайность
- 54. Определение. Вариационным рядом называется ранжированный в порядке возрастания ряд значений (вариантов) с соответствующими им частотами. Данный
- 55. Построение дискретного вариационного ряда нецелесообразно, когда число значений в выборке велико или признак имеет непрерывную природу,
- 56. В том случае, когда можно предположить, что изучаемый признак в ГС подчиняются нормальному з.р., для вычисления
- 57. Существуют различные приёмы изображения набора данных, которые дают визуальное представление об основных свойствах экспериментальных данных в
- 58. Гистограмма используется для изображения интервальных вариационных рядов и представляет собой ступенчатую фигуру из прямоугольников с основаниями,
- 59. Эмпирической функцией распределения Fn(x) называется относительная частота того, что случайная величина принимает значение меньше заданного: Fn(x)
- 60. Следует дополнить вариационные ряды и их графическое изображение некоторыми сводными характеристиками вариационных рядов. Эти обобщающие показатели
- 61. Определение: Медиана – это значение признака, приходящееся на середину ранжированного ряда наблюдений. Иначе: это то значение
- 62. Определение: Модой называется значение признака, наиболее часто встречающееся в выборке. Иначе: Мода - то значение варианта,
- 63. Определение. Выборочной дисперсией вариационного ряда называется среднее арифметическое квадратов отклонений вариантов от их среднего арифметического: При
- 64. Будем всегда выборочную дисперсию вычислять по второй формулу, называя ее просто «выборочная дисперсия». Ясно, что при
- 65. § 2. Точечные оценки параметров генеральной совокупности. Поставим задачу в общем виде – задачу отыскания хороших
- 66. Требования, предъявляемые к точечным оценкам (Иногда говорят : свойства точечных оценок): Несмещённость. Оценка параметра θ называется
- 67. 3. Состоятельность. Оценка параметра θ называется состоятельной, если она удовлетворяет ЗБЧ: В последнее время стали добавлять
- 68. Показано, что среднее арифметическое, вычисленное на основе выборки и являющееся точечной оценкой генерального среднего (истинного значения
- 69. Аналогично, несмещенной точечной оценкой ковариации cov(X,Y) является такая оценка: В формулах для S2 и KXY возникает
- 70. § 3. Методы получения точечных оценок параметров генеральной совокупности. Основное внимание уделим методу, который наиболее часто
- 71. Функцией правдоподобия дискретной СВ Х называют функцию аргумента θ (искомого параметра) В качестве точечной оценки параметра
- 72. Методом наибольшего правдоподобия найдена оценка параметра λ в законе распределения Пуассона Методом наибольшего правдоподобия найдена оценка
- 73. Функцией правдоподобия непрерывной СВ Х называют функцию аргумента θ (искомого параметра) Здесь x1, x2, …, xn
- 74. По поводу метода наибольшего правдоподобия сделаем выводы: 1. Метод наибольшего правдоподобия дает естественные оценки, не противоречащие
- 75. Следует ввести дополнительные распределения и новые таблицы, созданные на основе этих распределений. § 4. Распределения, связанные
- 76. 2. t -распределение (или распределение Стьюдента) Определение: Пусть СВ Y, X1, X2, …, Xk независимые и
- 77. § 5. Интервальные оценки параметров генеральной совокупности. Наша задача - научиться отыскивать границы интервала, который накроет
- 78. Ставится задача отыскания такого значения ε, для которого выполнено: Величина ε называется «точность оценки» (или: «предельная
- 79. Интервальная оценка математического ожидания (или: генерального среднего) нормально распределенной ГС, если известна дисперсия σ2 для ГС.
- 80. 2. Интервальная оценка математического ожидания нормально распределенной ГС, если дисперсия σ2 для ГС неизвестна. Теперь вместо
- 81. Замечание: При n≤30 (малые выборки) следует находить tкр на основе распределения Стьюдента; При n>30 (большие выборки)
- 82. Если задана точность оценки ε , то можно найти объем выборки, которая обеспечит эту требуемую точность:
- 83. Очевидно, что значения χ2 кр1 и χ2 кр2 определяются неоднозначно при одном и том же значении
- 84. Для случая больших объемов выборки (n>30): 4. Интервальная оценка истинного значения вероятности биномиального закона распределения (генеральной
- 86. Б. Случай больших выборок ( порядка сотен и более ; например, от 200 и более). Формулы
- 87. В. Случай выборок малого объема (n≤30 ) В этом случае для вычисления Sw используется формула Доверительный
- 88. § 6. Понятие статистической гипотезы. Нулевая и конкурирующая гипотезы. Критерий. Критические области и область принятия нулевой
- 89. Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Это такие значения критерия, которые
- 90. Процедура проверки простой параметрической гипотезы выглядит так: Формируют нулевую гипотезу Н0 и альтернативную гипотезу Н1 на
- 91. Вероятность попадания в эту область мала и равна α=1-γ. α носит название «уровень значимости»(α=0.10;0.05;0.01). 4. Вычисляют
- 92. 6. Если наблюдаемое значение критерия Кнабл попадает в область неестественных значений и мы, следовательно, отвергаем гипотезу
- 93. 3. Н1: θ 2. Н1: θ >θ0
- 94. § 7. Проверка гипотезы о числовом значении математического ожидания m (генеральной средней ) нормально распределенной ГС.
- 95. При конкурирующей гипотезе Н1: m≠ m0 следует вводить двустороннюю критическую область. Из условия P(|t| Здесь введен
- 96. Если окажется, что вычисленное на основе экспериментальных данных значение tнабл таково, что |tнабл| если |tнабл|≥ tкр,
- 97. Если tнабл если tнабл ≥ tкр, то отвергаем нулевую гипотезу и принимаем альтернативную гипотезу Н1.
- 98. 2. Дисперсия ГС неизвестна Вычисляем выборочную дисперсию S2 для аппроксимации значения генеральной дисперсии σ2 . Формулы
- 99. Связь между двусторонней критической областью и доверительным интервалом Отыскивая двустороннюю критическую область мы проделывали совершенно такие
- 100. § 8. Проверка гипотезы о числовом значении вероятности p биномиального закона распределения (о числовом значении генеральной
- 101. Пусть имеются две нормально распределенные ГС, причем в первой совокупности изучаемый признак X~N(m1;σ1), во второй совокупности
- 102. Подчеркнем: мы в данной формуле берем значения σ1 и σ2 либо из предыдущего опыта (и тогда
- 103. §10. Проверка гипотезы о равенстве вероятностей биномиального закона распределения (о равенстве долей признака) двух генеральных совокупностей.
- 104. Сформулируем задачу: Имеются две ГС, вероятности проявления признака (генеральные доли) в которых равны соответственно p1 и
- 105. В качестве неизвестного значения вероятности р, входящего в выражение критерия t, берут ее наилучшую оценку: tкр
- 106. §11. Проверка гипотезы о значимости выборочного коэффициента корреляции Пирсона. Рассматривается двумерная нормально распределенная генеральная совокупность (X,Y),
- 107. Всегда проверяется нулевая гипотеза об отсутствии линейной корреляционной связи в ГС, а альтернатива заключается в предположении
- 108. В качестве критерия проверки нулевой гипотезы используется случайная величина Показано, что эта СВ при справедливости нулевой
- 109. Проверка гипотезы о значимости выборочного коэффициента корреляции Спирмена При проверке коэффициента корреляции Спирмена поступают совершенно аналогично
- 110. Если объем выборки совсем маленький (n Если объем выборки n ≥ 9, то при справедливости гипотезы
- 111. Критерий знаков не связан с заданием каких-то конкретных значений параметров распределения, и поэтому на основе этого
- 112. Пусть имеются две выборки одинакового объема n, и эти выборки проранжированы: x1 Введем разность r i=xi-yi.
- 113. При справедливости гипотезы H0 k – дискретная случайная величина, распределенная по биномиальному з.р. с параметрами n
- 114. Алгоритм реализации критерия знаков таков: Рассматривают серию из n испытаний и подсчитывают число положительных и отрицательных
- 115. 4. Критические области для значений критерия связаны с видом альтернативной гипотезы H1: а) б) → положительных
- 116. в) → положительных разностей много (много успехов) 4. Вычисление критерия W(n;k) проводят при малых выборках (n≤30).
- 117. § 13. Шкалы измерений признаков. Ранее были рассмотрены признаки, измеряемые в количественных шкалах - в этом
- 118. § 14. Связь номинальных признаков (таблицы сопряженности) Предположим, что признаки статистически независимы, тогда введем две гипотезы:
- 119. Возникла таблица 2×3. Она называется таблицей сопряженности признаков А и В.
- 120. Введем обозначения: i - номер строки (i=1,2,…,r) j- номер столбца (j=1,2,…,s) nij - частота события Ai∩Bj
- 121. Определение. Величины называются ожидаемыми или теоретическими частотами (имеется в виду ожидаемыми при выполнении гипотезы H0) При
- 122. Если равенства (*) примерно выполняются, то гипотезу H0 можно признать справедливой. Если же равенства (*) плохо
- 123. Теорема (К. Пирсон, Р. Фишер): Если справедлива гипотеза Н0, на основе которой рассчитаны теоретические частоты Т,
- 124. Как было сказано, распределение χ2 является предельным для СВ Х2 , поэтому использовать его как приближение
- 125. Значения Х2 считаются настолько большими, если они превосходят критические значения распределения χ2, соответствующие выбранному уровню значимости.
- 126. Коэффициенты для вычисления тесноты связи между номинальными признаками: Коэффициент «фи» Коэффициент взаимной сопряженности Пирсона
- 127. Благодарю за внимание! Желаю удачи в написании итоговой контрольной работы !!!!!!!!!!!!
- 129. Скачать презентацию