МС – раздел прикладной математики, примыкающий к ТВ. В МС изучаются методы нахождения приближенных законов распределения и числовых характеристик по результатам эксперимента. Пусть имеется СВ ξ, мы наблюдаем ее значения х1…хп. Эти величины в МС наз-ся выборкой, а сама СВ в этом случае наз-ся генеральной СВ. Основная задача МС – как по выборке сделать те или иные заключения о генеральной СВ. Допустим, что в результате 1-го опыта у нас получилось х1, а последнего – хп. Этот результат можно интерпретировать двояко: либо как апостериорную, либо как априорную величину. Далее х1…хп – априорные выборочные значения. В МС их часто располагают в порядке возрастания. Эта упорядоченная последовательность наз-ся вариационным рядом, а априорные величины – порядковыми статистиками. Если n велико, то статистический ряд составляется следующим образом: в 1-й строке записываются разности x2 – x1, …, xn – xn-1, а во второй – частные m1/n … mn/n. Мы имеем n непересекающихся интервалов, одинаковых, на который разбивается вся область. mi – число выборочных значений, попавших в интервал. Этот статистический ряд является приближенным выражением закона распределения, при этом соответствующий график называется гистограммой – по х откладывается значения порядковых статистик, по у – частные mi/n. По виду гистограммы можно судить о распределении.
37. Метод моментов
Если ξ – НСВ с плотностью , то начальным моментом порядка k наз-ют , а центральным моментом – . Метод моментов состоит в том, что мы заменяем неизвестные истинные моменты на приближенные известные выборочные моменты. – выборочный начальный момент порядка k. – выборочный центральный момент порядка k. Особенно важны начальный момент 1-го порядка и центральный 2-го. НМ 1-го порядка – это выборочный средний, ЦМ 2-го – выборочная дисперсия. Таким образом, .
38. Метод наибольшего правдоподобия
Пусть ξ – некоторая генеральная СВ, а ее функция плотности зависит от k неизвестных параметров. Наилучшими значениями этих параметров будут те, для которых примет максимальное значение. Эта функция наз-ся функцией правдоподобия. х1…хп – выборка СВ, имеющая одинаковый закон распределения. Для облегчения вычисления максимума мы замещаем функцию ψ на логарифмическую .
39. Свойства оценок
Оценка параметров определяется по выборке х1…хп. Значения х – случайны → выборка тоже случайна, то и оценки параметров – случайны. Обозначим оценку ã для параметра а. Естественно, что ã – это функция величин х1…хп. К ней есть ряд требований, чтобы обеспечить достоверность оценки. 1. Если при увеличении числа опытов ã → к а, то она называется состоятельной. Если у оценки ã нет систематической ошибки, т.е. если МО от ã = а, то она называется несмещенной. Наконец, желательно, чтобы оценка обладала наименьшей дисперсией, тогда она называется эффективной. Оценкой для МО является среднее арифметическое всех наблюденных значений – эта оценка состоятельная, несмещенная, достаточно эффективна (особенно для нормально распределенных СВ). Оценкой для дисперсии является статистическая дисперсия – она состоятельна, но не несмещенная, хотя для смещения достаточно внести поправку на n/(n-1), достаточно эффективна при больших n.
40. Доверительные интервалы. ДИ для МО при известной дисперсии
При достаточно малом количестве опытов замена параметра а его точечной оценкой ã может привести к серьезным ошибкам. Чтобы дать оценку адекватности ã, в МС пользуются доверительными интервалами и доверительными вероятностями. Пусть для параметра а получена оценка ã, мы хотим оценить ошибку ã. Назначим некоторую вероятность b, практически невозможную, b > 0,99. Найдем такое e, для которого Р(|ã – a| < e) = b. Тогда диапазон ошибок будет ±e, большие по величине ошибки будут появляться только в случаях a = 1 – b. Это означает, что с вероятностью b неизвестное значение попадет в интервал Ib = (ã – e, ã + e). Причем ã не случайна, т.е. мы рассматриваем не вероятность попадания ã в интервал, а наоборот, – вероятность попадания интервала на ã. Вероятность b – доверительная вероятность, а интервал Ib – доверительный интервал. Его границы – доверительные границы.
Для определения ДИ для МО при известной дисперсии необходимо составить неравенства: , причем его можно преобразовать через нормальную функцию распределения как , откуда находим , где arg Ф – обратная функция к Ф.
Уважаемый посетитель!
Чтобы распечатать файл, скачайте его (в формате Word).
Ссылка на скачивание - внизу страницы.