Ошибка бесповторной собственно случайной выборки для доли

Повторный и бесповторный отбор.
Ошибка выборки

Краткая теория


На основании выборочных данных дается оценка статистических
показателей по всей (генеральной) совокупности. Подобное возможно, если выборка
основывается на принципах случайности отбора и репрезентативности
(представительности) выборочных данных. Каждая единица генеральной совокупности
должна иметь равную возможность (вероятность) попасть в выборку.

При формировании выборочной совокупности используются следующие
способы отбора: а) собственно-случайный отбор; б) механическая выборка; в)
типический (районированный) отбор; г) многоступенчатая (комбинированная)
выборка; д) моментно-выборочное наблюдение.

Выборка может осуществляться по схеме повторного и бесповторного
отбора.

В первом случае единицы совокупности, попавшие в выборку, снова
возвращаются в генеральную, а во втором случае – единицы совокупности, попавшие
в выборку, в генеральную совокупность уже не возвращаются.

Выборка может осуществляться отдельными единицами или сериями
(гнездами).

Собственно-случайная выборка

Отбор в этом случае производится либо по жребию, либо по таблицам
случайных чисел.

На основании приемов классической выборки решаются следующие
задачи:

а) определяются границы среднего значения показателя по генеральной
совокупности;

б) определяются границы доли признака по генеральной совокупности.

Предельная ошибка средней при собственно-случайном отборе
исчисляется по формулам:

а) при повторном отборе:

б) при бесповторном отборе:

где

 – численность выборочной совокупности;

 – численность генеральной совокупности;

 – дисперсия признака;

 – критерий кратности ошибки: при

;
при

;
при

.

Значения

 
определяются

по таблице функции Лапласа.

Границы (пределы) среднего значения признака по генеральной
совокупности определяются следующим неравенством:

где

 – среднее значение признака по выборочной
совокупности.

Предельная ошибка доли при собственно-случайном отборе определяется
по формулам:

а) при повторном отборе:

при бесповторном отборе:

где

 – доля единиц совокупности с заданным
значением признака в обзей численности выборки,

 – дисперсия доли признака.

Границы (пределы) доли признака по всей (генеральной) совокупности
определяются неравенством:

где

 – доля признака по генеральной совокупности.

Типическая (районированная) выборка

Особенность этого вида
выборки заключается в том, что предварительно генеральная совокупность по
признаку типизации разбивается на частные группы (типы, районы), а затем в
пределах этих групп производится выборка.

Предельная ошибка средней
при типическом бесповторном отборе определяется по формуле:

где

 – средняя из внутригрупповых дисперсий

 по каждой типичной группе.

При пропорциональном отборе из групп генеральной совокупности
средняя из внутригрупповых дисперсий определяется по формуле:

где

 – численности единиц совокупности групп по выборке.

Границы (пределы) средней по генеральной совокупности на основании
данных типической выборки определяются по тому же неравенству, что при
собственно-случайной выборке. Только предварительно необходимо вычислить общую
выборочную среднюю

 из частных выборочных средних

.
Для случая пропорционального отбора это определяется по формуле:

При непропорциональном отборе средняя из  внутригрупповых дисперсий вычисляется по
формуле:

где

 – численность единиц групп по генеральной
совокупности.

Общая выборочная средняя в этом случае определяется по формуле:

Предельная ошибка доли
признака при типическом бесповторном отборе определяется формулой:

Средняя дисперсия доли
признака из групповых дисперсий доли

 при
типической пропорциональной выборке вычисляется по формуле:

Средняя доля признака по
выборке из показателей групповых долей рассчитывается формуле:

Средняя дисперсия доли при
непропорциональном типическом отборе определяется следующим образом:

а средняя доля признака:

Формулы ошибок выборки при типическом повторном отборе будут те же,
то и для случая бесповторного отбора. Отличие заключается только в том, что в
них будет отсутствовать по корнем сомножитель

.

Серийная выборка

Серийная ошибка выборки
может применяться в двух вариантах:

а) объем серий различный

б) все серии имеют
одинаковое число единиц (равновеликие серии).

Наиболее распространенной
в практике статистических исследований является серийная выборка с
равновеликими сериями. Генеральная совокупность делится на одинаковые по объему
группы-серии

 и
производится отбор не единиц совокупности, а серий

. Группы (серии) для обследования отбирают в
случайном порядке или путем механической выборки как повторным, так и
бесповторными способами. Внутри каждой отобранной серии осуществляется сплошное
наблюдение. Предельные ошибки выборки

 при
серийном отборе исчисляются по формулам:

а) при повторном отборе

б) при бесповторном отборе

где

 – число
серий в генеральной совокупности;

 – число
отобранных серий;

 – межсерийная дисперсия, исчисляемая для случая равновеликих
серий по формуле:

где

 –
среднее значение признака в каждой из отобранных серий;

 – межсерийная
средняя, исчисляемая для случая равновеликих серий по формуле:

Определение численности выборочной совокупности

При проектировании
выборочного наблюдения важно наряду с организационными вопросами решить одну из
основных постановочных задач: какова должна быть необходимая численность
выборки с тем, чтобы с заданной степенью точности (вероятности) заранее
установленная ошибка выборки не была бы превзойдена.

Примеры решения задач


Задача 1

На основании результатов проведенного на заводе 5%
выборочного наблюдения (отбор случайный, бесповторный) получен следующий ряд
распределения рабочих по заработной плате:

Группы рабочих по размеру заработной платы, тыс.р. до 200 200-240 240-280 280-320 320 и выше Итого
Число рабочих 33 35 47 45 40 200

На основании приведенных данных определите:

1) с вероятностью 0,954 (t=2) возможные пределы, в которых
ожидается средняя заработная плата рабочего в целом по заводу (по генеральной
совокупности);

2) с вероятностью 0,997 (t=3) предельную ошибку и границы доли
рабочих с заработной платой от 320 тыс.руб. и выше.

Решение

На сайте можно заказать решение контрольной или самостоятельной работы, домашнего задания, отдельных задач. Для этого вам нужно только связаться со мной:

ВКонтакте
WhatsApp
Telegram

Мгновенная связь в любое время и на любом этапе заказа. Общение без посредников. Удобная и быстрая оплата переводом на карту СберБанка. Опыт работы более 25 лет.

Подробное решение в электронном виде (docx, pdf) получите точно в срок или раньше.

Вычислим среднюю з/п: Для этого просуммируем произведения середин
интервалов и соответствующих частот, и полученную сумму разделим на сумму
частот.

2) Выборочная дисперсия:

Найдем доверительный интервал для средней. Предельная ошибка выборочной
средней считается по формуле:

где

 —

аргумент функции Лапласа.  

Искомые возможные пределы, в которых ожидается средняя заработная плата
рабочего в целом по заводу:

Найдем доверительный интервал для выборочной доли. Предельная ошибка
выборочной доли считается по формуле:

Доля рабочих с з/п от 320 тыс.р.:

 

Искомые границы доли рабочих с заработной платой от 320 тыс.руб. и выше:


Задача 2

В
городе 23560 семей. В порядке механической выборки предполагается определить
количество семей в городе с числом детей трое и более. Какова должна быть
численность выборки, чтобы с вероятностью 0,954 ошибка выборки не превышала
0,02 человека. На основе предыдущих обследований известно, что дисперсия равна
0,3.

Решение

Численность
выборки можно найти по формуле:

В нашем случае:

Вывод к задаче

Таким образом численность
выборки должна составить 2661 чел.


Задача 3

С
целью определения средней месячной заработной платы персонала фирмы было
проведено 25%-ное выборочное обследование с отбором
единиц пропорционально численности типических групп. Для отбора сотрудников
внутри каждого филиала использовался механический отбор. Результаты
обследования представлены в следующей таблице:

Номер филиала Средняя месячная
заработная плата, руб.
Среднее квадратическое отклонение, руб. Число
сотрудников, чел.
1 870 40 30
2 1040 160 80
3 1260 190 140
4 1530 215 190

С
вероятностью 0,954 определите пределы средней месячной заработной платы всех
сотрудников гостиниц.

Решение

Предельная
ошибка выборочной средней:

Средняя
из внутригрупповых дисперсий:

Получаем:

Средняя
месячная заработная плата по всей совокупности филиалов:

Искомые
пределы средней месячной заработной платы:

Вывод к задаче

Таким
образом с вероятностью 0,954 средняя месячная заработная плата всех сотрудников
гостиниц находится в пределах от 1294,3 руб. до 1325,7 руб.

Виды ошибок при
проведении выборочного наблюдения: :

1. Ошибки
регистрации

— возникают при проведении всех видов
наблюдения. Они зависят от добросовестности
и квалификации регистрато­ров,
правильности ответов опрашиваемых.

2. Ошибки
репрезентативности

— свойственны только выборочным
на­блюдениям.

Ошибки могут быть
случайными и систематическими.

Случайные ошибки
— несущественные, так как отклонения в
сторону

уменьшения или
увеличения встречаются одинаково часто,
взаимно погашаются.

Систематические
ошибки

существенно искажают результаты, так
как допускаются отклонения в одну
сторону, эти ошибки являются следствием
нарушения принципа случайного отбора.

При соблюдении
принципа случайного отбора ошибка
выборки определяются прежде всего
численностью выборки, чем больше
чис­ленность выборки, тем меньше
величи­на ошибки выборки.

Ошибка выборки
определяется степенью варьирования
изу­чаемого признака, а степень
варьирования характеризуется в
стати­стике средним квадратом
отклонений — дисперсией.

Средняя ошибка
выборки (μх)

при собственно-случайном повтор­ном
отборе определяется следующим образом:

1. для среднего
значения признака по формуле
μх =

2.для доли
альтернативного признака по формуле
μх

где n
— численность
выборочной совокупности, σ²
— дисперсия признака; ω
— доля единиц
совокупности с заданным значением
признака в их общей их численности по
выборке.

51. Методы расчета ошибок для среднего значения и доли альтернативного признака при случайном бесповоротном отборе.

При расчете ошибок
для среднего значения и доли альтернативного
признака при случайной бесповторной
выборке в формулы средней ошиб­ки
выборки необходимо добавить дополнительный
множитель в под­коренное выражение


,
тогда формулы средней ошибки выборки
примут следующий вид:

■ для среднего
значения признака:

■ для доли
альтернативного признака:

где N
численность генеральной совокупности,
n
— численность
выборочной совокупности, σ²
— дисперсия признака; ω
— доля единиц
совокупности с заданным значением
признака в их общей их численности по
выборке.

52. Методы расчета предельной ошибки выборки для среднего значения и доли альтернативного признака при типичном отборе (повторном и бесповоротном).

Предельную ошибку
выборки (∆) находят по формуле:
= ±
tμ

где t
— коэффициент доверия, величина которого
зависит от заданной вероятности (р) и
определяется по специальным таблицам,
исчис­ленным по интегралу Лапласа.

Если в формулу
предельной ошибки выборки подставить
значение средней ошибки выборки, то
формула предель­ной ошибки выборки
для среднего значения признака примет
сле­дующий вид:

  1. при повторном
    отборе:

2. при бесповторном
отборе:

Границы (пределы)
среднего значения признака по генеральной
совокупности (х) определяются следующим
неравенством:

где х — среднее
значение признака по выборочной
совокупности.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Теорема 1. Вероятность того, что
отклонение выборочной доли от генеральной
доли не превосходит числа

(по абсолютной величине), равна

, где

.

Последняя формула называется формулой
доверительной вероятности при оценке
доли признака
.

Определение 1. Средней
квадратической ошибкой выборки
при
оценке генеральной доли признака
называется среднее квадратическое
отклонение выборочной доли w
собственно-случайной выборки (для
бесповторной выборки обозначается
w).

Следствие 1. При заданной
доверительной вероятности

предельная ошибка выборки равна
t-кратной
величине средней квадратической ошибки
,
т.е.

.

Следствие 2. Доверительный
интервал для генеральной доли может
быть найден по формуле

.

Используя формулы дисперсий

и



при оценке генеральной доли признака
соответственно при повторной и
бесповторной собственно-случайной
выборке, можно получить формулы средних
квадратических ошибок:


,


.

Заметим, что генеральная доля p
неизвестна, но при достаточно большом
объеме выборки практически достоверно,
что pw.
Более того, если даже выборочная доля
w неизвестна, то в
качестве pq можно взять
его максимально возможное значение
0,25.

Теорема 2. Вероятность того, что
отклонение выборочной средней от
генеральной средней не превосходит
числа

(по абсолютной величине), равна


,
где

.

Последняя формула называется формулой
доверительной вероятности для средней
.

Доказательство теоремы основано на
теореме Ляпунова и свойстве 2 случайной
величины, распределенной по нормальному
закону распределения.

Определение 2. Средней
квадратической ошибкой выборки
при
оценке генеральной средней называется
среднее квадратическое отклонение
выборочной доли

собственно-случайной выборки (для
бесповторной выборки обозначается

).

Следствие 3. При заданной
доверительной вероятности

предельная ошибка выборки равна
t-кратной
величине средней квадратической ошибки
,
т.е.

.

Следствие 4. Доверительный
интервал для генеральной средней может
быть найден по формуле

.

Используя формулы дисперсий

и



при оценке генеральной средней
соответственно при повторной и
бесповторной собственно-случайной
выборке, можно получить формулы средних
квадратических ошибок:


,


.

Заметим, что дисперсия 2
неизвестна, но при достаточно большом
объеме выборки практически достоверно,
что s22.

5. Определение необходимого объема повторной и бесповторной выборок

Для определения объема выборки n
необходимо знать надежность (доверительную
вероятность) оценки 
и точность (предельную ошибку выборки)
.

Например, при оценке генеральной средней
для повторной выборки:

(t)=,
где

.

При заданной доверительной вероятности
 предельная ошибка
выборки равна t-кратной
величине средней квадратической ошибки,
т.е.

(п.40, следствие 1).

Формула дисперсии


при оценке генеральной средней при
повторной собственно-случайной выборке
(п.36, теорема 1).

Следовательно,

.
Отсюда

.

Итак, для определения объема выборки
необходимо знать дисперсию генеральной
совокупности 2
, которая неизвестна. Обычно, с целью
определения 2
, проводят выборочное наблюдение (или
используют данные предыдущего аналогичного
исследования) и полагают, что s22.

Аналогично находятся другие формулы
для определения объема выборки по
известным надежности и точности:

– при оценке генеральной средней для
бесповторной выборки;

– при оценке генеральной доли для
повторной выборки;

– при оценке генеральной доли для
бесповторной выборки.

При оценке генеральной доли полагают
w
p.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

In other words, the MSE is the mean {textstyle left({frac {1}{n}}sum _{i=1}^{n}right)} of the squares of the errors {textstyle left(Y_{i}-{hat {Y_{i}}}right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}(e_{i})^{2}={frac {1}{n}}mathbf {e} ^{mathsf {T}}mathbf {e} }

where e_{i} is {displaystyle (Y_{i}-{hat {Y_{i}}})} and {displaystyle mathbf {e} } is the {displaystyle ntimes 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as statistical learning, the MSE is often called the test MSE,[4] and is computed as

{displaystyle operatorname {MSE} ={frac {1}{q}}sum _{i=n+1}^{n+q}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

Estimator[edit]

The MSE of an estimator hat{theta} with respect to an unknown parameter theta is defined as[1]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator hat{theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} ({hat {theta }},theta )^{2}.}

Proof of variance and bias relationship[edit]

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]+operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}+2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+operatorname {E} _{theta }left[2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)right]+operatorname {E} _{theta }left[left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)operatorname {E} _{theta }left[{hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]-theta ={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)left(operatorname {E} _{theta }[{hat {theta }}]-operatorname {E} _{theta }[{hat {theta }}]right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} _{theta }({hat {theta }},theta )^{2}end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {textstyle X}, {textstyle mathbb {E} (X^{2})=operatorname {Var} (X)+(mathbb {E} (X))^{2}}. By substituting {textstyle X} with, {textstyle {hat {theta }}-theta }, we have

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=mathbb {E} [({hat {theta }}-theta )^{2}]&=operatorname {Var} ({hat {theta }}-theta )+(mathbb {E} [{hat {theta }}-theta ])^{2}&=operatorname {Var} ({hat {theta }})+operatorname {Bias} ^{2}({hat {theta }})end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the mu is the sample average

overline{X}=frac{1}{n}sum_{i=1}^n X_i

which has an expected value equal to the true mean mu (so it is unbiased) and a mean squared error of

{displaystyle operatorname {MSE} left({overline {X}}right)=operatorname {E} left[left({overline {X}}-mu right)^{2}right]=left({frac {sigma }{sqrt {n}}}right)^{2}={frac {sigma ^{2}}{n}}}

where sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{displaystyle S_{n-1}^{2}={frac {1}{n-1}}sum _{i=1}^{n}left(X_{i}-{overline {X}}right)^{2}={frac {1}{n-1}}left(sum _{i=1}^{n}X_{i}^{2}-n{overline {X}}^{2}right).}

This is unbiased (its expected value is sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{displaystyle operatorname {MSE} (S_{n-1}^{2})={frac {1}{n}}left(mu _{4}-{frac {n-3}{n-1}}sigma ^{4}right)={frac {1}{n}}left(gamma _{2}+{frac {2n}{n-1}}right)sigma ^{4},}

where mu _{4} is the fourth central moment of the distribution or population, and gamma_2=mu_4/sigma^4-3 is the excess kurtosis.

However, one can use other estimators for sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{displaystyle S_{a}^{2}={frac {n-1}{a}}S_{n-1}^{2}={frac {1}{a}}sum _{i=1}^{n}left(X_{i}-{overline {X}},right)^{2}}

then we calculate:

{displaystyle {begin{aligned}operatorname {MSE} (S_{a}^{2})&=operatorname {E} left[left({frac {n-1}{a}}S_{n-1}^{2}-sigma ^{2}right)^{2}right]&=operatorname {E} left[{frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2left({frac {n-1}{a}}S_{n-1}^{2}right)sigma ^{2}+sigma ^{4}right]&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)operatorname {E} left[S_{n-1}^{2}right]sigma ^{2}+sigma ^{4}&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{2}right]=sigma ^{2}&={frac {(n-1)^{2}}{a^{2}}}left({frac {gamma _{2}}{n}}+{frac {n+1}{n-1}}right)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{4}right]=operatorname {MSE} (S_{n-1}^{2})+sigma ^{4}&={frac {n-1}{na^{2}}}left((n-1)gamma _{2}+n^{2}+nright)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}end{aligned}}}

This is minimized when

a=frac{(n-1)gamma_2+n^2+n}{n} = n+1+frac{n-1}{n}gamma_2.

For a Gaussian distribution, where gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {displaystyle a=n-1+{tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{displaystyle theta =mu } hat{theta} = the unbiased estimator of the population mean, overline{X}=frac{1}{n}sum_{i=1}^n(X_i) operatorname{MSE}(overline{X})=operatorname{E}((overline{X}-mu)^2)=left(frac{sigma}{sqrt{n}}right)^2
{displaystyle theta =sigma ^{2}} hat{theta} = the unbiased estimator of the population variance, S^2_{n-1} = frac{1}{n-1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n-1})=operatorname{E}((S^2_{n-1}-sigma^2)^2)=frac{2}{n - 1}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n} = frac{1}{n}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n})=operatorname{E}((S^2_{n}-sigma^2)^2)=frac{2n - 1}{n^2}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n+1} = frac{1}{n+1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n+1})=operatorname{E}((S^2_{n+1}-sigma^2)^2)=frac{2}{n + 1}sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator hat{theta} predicts observations of the parameter theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

From Wikipedia, the free encyclopedia

In statistics, the mean squared error (MSE)[1] or mean squared deviation (MSD) of an estimator (of a procedure for estimating an unobserved quantity) measures the average of the squares of the errors—that is, the average squared difference between the estimated values and the actual value. MSE is a risk function, corresponding to the expected value of the squared error loss.[2] The fact that MSE is almost always strictly positive (and not zero) is because of randomness or because the estimator does not account for information that could produce a more accurate estimate.[3] In machine learning, specifically empirical risk minimization, MSE may refer to the empirical risk (the average loss on an observed data set), as an estimate of the true MSE (the true risk: the average loss on the actual population distribution).

The MSE is a measure of the quality of an estimator. As it is derived from the square of Euclidean distance, it is always a positive value that decreases as the error approaches zero.

The MSE is the second moment (about the origin) of the error, and thus incorporates both the variance of the estimator (how widely spread the estimates are from one data sample to another) and its bias (how far off the average estimated value is from the true value).[citation needed] For an unbiased estimator, the MSE is the variance of the estimator. Like the variance, MSE has the same units of measurement as the square of the quantity being estimated. In an analogy to standard deviation, taking the square root of MSE yields the root-mean-square error or root-mean-square deviation (RMSE or RMSD), which has the same units as the quantity being estimated; for an unbiased estimator, the RMSE is the square root of the variance, known as the standard error.

Definition and basic properties[edit]

The MSE either assesses the quality of a predictor (i.e., a function mapping arbitrary inputs to a sample of values of some random variable), or of an estimator (i.e., a mathematical function mapping a sample of data to an estimate of a parameter of the population from which the data is sampled). The definition of an MSE differs according to whether one is describing a predictor or an estimator.

Predictor[edit]

If a vector of n predictions is generated from a sample of n data points on all variables, and Y is the vector of observed values of the variable being predicted, with hat{Y} being the predicted values (e.g. as from a least-squares fit), then the within-sample MSE of the predictor is computed as

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

In other words, the MSE is the mean {textstyle left({frac {1}{n}}sum _{i=1}^{n}right)} of the squares of the errors {textstyle left(Y_{i}-{hat {Y_{i}}}right)^{2}}. This is an easily computable quantity for a particular sample (and hence is sample-dependent).

In matrix notation,

{displaystyle operatorname {MSE} ={frac {1}{n}}sum _{i=1}^{n}(e_{i})^{2}={frac {1}{n}}mathbf {e} ^{mathsf {T}}mathbf {e} }

where e_{i} is {displaystyle (Y_{i}-{hat {Y_{i}}})} and {displaystyle mathbf {e} } is the {displaystyle ntimes 1} column vector.

The MSE can also be computed on q data points that were not used in estimating the model, either because they were held back for this purpose, or because these data have been newly obtained. Within this process, known as statistical learning, the MSE is often called the test MSE,[4] and is computed as

{displaystyle operatorname {MSE} ={frac {1}{q}}sum _{i=n+1}^{n+q}left(Y_{i}-{hat {Y_{i}}}right)^{2}.}

Estimator[edit]

The MSE of an estimator hat{theta} with respect to an unknown parameter theta is defined as[1]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right].}

This definition depends on the unknown parameter, but the MSE is a priori a property of an estimator. The MSE could be a function of unknown parameters, in which case any estimator of the MSE based on estimates of these parameters would be a function of the data (and thus a random variable). If the estimator hat{theta} is derived as a sample statistic and is used to estimate some population parameter, then the expectation is with respect to the sampling distribution of the sample statistic.

The MSE can be written as the sum of the variance of the estimator and the squared bias of the estimator, providing a useful way to calculate the MSE and implying that in the case of unbiased estimators, the MSE and variance are equivalent.[5]

{displaystyle operatorname {MSE} ({hat {theta }})=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} ({hat {theta }},theta )^{2}.}

Proof of variance and bias relationship[edit]

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=operatorname {E} _{theta }left[({hat {theta }}-theta )^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]+operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}+2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+operatorname {E} _{theta }left[2left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)left(operatorname {E} _{theta }[{hat {theta }}]-theta right)right]+operatorname {E} _{theta }left[left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}right]&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)operatorname {E} _{theta }left[{hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]-theta ={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+2left(operatorname {E} _{theta }[{hat {theta }}]-theta right)left(operatorname {E} _{theta }[{hat {theta }}]-operatorname {E} _{theta }[{hat {theta }}]right)+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&&operatorname {E} _{theta }[{hat {theta }}]={text{const.}}&=operatorname {E} _{theta }left[left({hat {theta }}-operatorname {E} _{theta }[{hat {theta }}]right)^{2}right]+left(operatorname {E} _{theta }[{hat {theta }}]-theta right)^{2}&=operatorname {Var} _{theta }({hat {theta }})+operatorname {Bias} _{theta }({hat {theta }},theta )^{2}end{aligned}}}

An even shorter proof can be achieved using the well-known formula that for a random variable {textstyle X}, {textstyle mathbb {E} (X^{2})=operatorname {Var} (X)+(mathbb {E} (X))^{2}}. By substituting {textstyle X} with, {textstyle {hat {theta }}-theta }, we have

{displaystyle {begin{aligned}operatorname {MSE} ({hat {theta }})&=mathbb {E} [({hat {theta }}-theta )^{2}]&=operatorname {Var} ({hat {theta }}-theta )+(mathbb {E} [{hat {theta }}-theta ])^{2}&=operatorname {Var} ({hat {theta }})+operatorname {Bias} ^{2}({hat {theta }})end{aligned}}}

But in real modeling case, MSE could be described as the addition of model variance, model bias, and irreducible uncertainty (see Bias–variance tradeoff). According to the relationship, the MSE of the estimators could be simply used for the efficiency comparison, which includes the information of estimator variance and bias. This is called MSE criterion.

In regression[edit]

In regression analysis, plotting is a more natural way to view the overall trend of the whole data. The mean of the distance from each point to the predicted regression model can be calculated, and shown as the mean squared error. The squaring is critical to reduce the complexity with negative signs. To minimize MSE, the model could be more accurate, which would mean the model is closer to actual data. One example of a linear regression using this method is the least squares method—which evaluates appropriateness of linear regression model to model bivariate dataset,[6] but whose limitation is related to known distribution of the data.

The term mean squared error is sometimes used to refer to the unbiased estimate of error variance: the residual sum of squares divided by the number of degrees of freedom. This definition for a known, computed quantity differs from the above definition for the computed MSE of a predictor, in that a different denominator is used. The denominator is the sample size reduced by the number of model parameters estimated from the same data, (np) for p regressors or (np−1) if an intercept is used (see errors and residuals in statistics for more details).[7] Although the MSE (as defined in this article) is not an unbiased estimator of the error variance, it is consistent, given the consistency of the predictor.

In regression analysis, «mean squared error», often referred to as mean squared prediction error or «out-of-sample mean squared error», can also refer to the mean value of the squared deviations of the predictions from the true values, over an out-of-sample test space, generated by a model estimated over a particular sample space. This also is a known, computed quantity, and it varies by sample and by out-of-sample test space.

Examples[edit]

Mean[edit]

Suppose we have a random sample of size n from a population, X_{1},dots ,X_{n}. Suppose the sample units were chosen with replacement. That is, the n units are selected one at a time, and previously selected units are still eligible for selection for all n draws. The usual estimator for the mu is the sample average

overline{X}=frac{1}{n}sum_{i=1}^n X_i

which has an expected value equal to the true mean mu (so it is unbiased) and a mean squared error of

{displaystyle operatorname {MSE} left({overline {X}}right)=operatorname {E} left[left({overline {X}}-mu right)^{2}right]=left({frac {sigma }{sqrt {n}}}right)^{2}={frac {sigma ^{2}}{n}}}

where sigma ^{2} is the population variance.

For a Gaussian distribution, this is the best unbiased estimator (i.e., one with the lowest MSE among all unbiased estimators), but not, say, for a uniform distribution.

Variance[edit]

The usual estimator for the variance is the corrected sample variance:

{displaystyle S_{n-1}^{2}={frac {1}{n-1}}sum _{i=1}^{n}left(X_{i}-{overline {X}}right)^{2}={frac {1}{n-1}}left(sum _{i=1}^{n}X_{i}^{2}-n{overline {X}}^{2}right).}

This is unbiased (its expected value is sigma ^{2}), hence also called the unbiased sample variance, and its MSE is[8]

{displaystyle operatorname {MSE} (S_{n-1}^{2})={frac {1}{n}}left(mu _{4}-{frac {n-3}{n-1}}sigma ^{4}right)={frac {1}{n}}left(gamma _{2}+{frac {2n}{n-1}}right)sigma ^{4},}

where mu _{4} is the fourth central moment of the distribution or population, and gamma_2=mu_4/sigma^4-3 is the excess kurtosis.

However, one can use other estimators for sigma ^{2} which are proportional to S^2_{n-1}, and an appropriate choice can always give a lower mean squared error. If we define

{displaystyle S_{a}^{2}={frac {n-1}{a}}S_{n-1}^{2}={frac {1}{a}}sum _{i=1}^{n}left(X_{i}-{overline {X}},right)^{2}}

then we calculate:

{displaystyle {begin{aligned}operatorname {MSE} (S_{a}^{2})&=operatorname {E} left[left({frac {n-1}{a}}S_{n-1}^{2}-sigma ^{2}right)^{2}right]&=operatorname {E} left[{frac {(n-1)^{2}}{a^{2}}}S_{n-1}^{4}-2left({frac {n-1}{a}}S_{n-1}^{2}right)sigma ^{2}+sigma ^{4}right]&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)operatorname {E} left[S_{n-1}^{2}right]sigma ^{2}+sigma ^{4}&={frac {(n-1)^{2}}{a^{2}}}operatorname {E} left[S_{n-1}^{4}right]-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{2}right]=sigma ^{2}&={frac {(n-1)^{2}}{a^{2}}}left({frac {gamma _{2}}{n}}+{frac {n+1}{n-1}}right)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}&&operatorname {E} left[S_{n-1}^{4}right]=operatorname {MSE} (S_{n-1}^{2})+sigma ^{4}&={frac {n-1}{na^{2}}}left((n-1)gamma _{2}+n^{2}+nright)sigma ^{4}-2left({frac {n-1}{a}}right)sigma ^{4}+sigma ^{4}end{aligned}}}

This is minimized when

a=frac{(n-1)gamma_2+n^2+n}{n} = n+1+frac{n-1}{n}gamma_2.

For a Gaussian distribution, where gamma_2=0, this means that the MSE is minimized when dividing the sum by a=n+1. The minimum excess kurtosis is gamma_2=-2,[a] which is achieved by a Bernoulli distribution with p = 1/2 (a coin flip), and the MSE is minimized for {displaystyle a=n-1+{tfrac {2}{n}}.} Hence regardless of the kurtosis, we get a «better» estimate (in the sense of having a lower MSE) by scaling down the unbiased estimator a little bit; this is a simple example of a shrinkage estimator: one «shrinks» the estimator towards zero (scales down the unbiased estimator).

Further, while the corrected sample variance is the best unbiased estimator (minimum mean squared error among unbiased estimators) of variance for Gaussian distributions, if the distribution is not Gaussian, then even among unbiased estimators, the best unbiased estimator of the variance may not be S^2_{n-1}.

Gaussian distribution[edit]

The following table gives several estimators of the true parameters of the population, μ and σ2, for the Gaussian case.[9]

True value Estimator Mean squared error
{displaystyle theta =mu } hat{theta} = the unbiased estimator of the population mean, overline{X}=frac{1}{n}sum_{i=1}^n(X_i) operatorname{MSE}(overline{X})=operatorname{E}((overline{X}-mu)^2)=left(frac{sigma}{sqrt{n}}right)^2
{displaystyle theta =sigma ^{2}} hat{theta} = the unbiased estimator of the population variance, S^2_{n-1} = frac{1}{n-1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n-1})=operatorname{E}((S^2_{n-1}-sigma^2)^2)=frac{2}{n - 1}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n} = frac{1}{n}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n})=operatorname{E}((S^2_{n}-sigma^2)^2)=frac{2n - 1}{n^2}sigma^4
{displaystyle theta =sigma ^{2}} hat{theta} = the biased estimator of the population variance, S^2_{n+1} = frac{1}{n+1}sum_{i=1}^nleft(X_i-overline{X},right)^2 operatorname{MSE}(S^2_{n+1})=operatorname{E}((S^2_{n+1}-sigma^2)^2)=frac{2}{n + 1}sigma^4

Interpretation[edit]

An MSE of zero, meaning that the estimator hat{theta} predicts observations of the parameter theta with perfect accuracy, is ideal (but typically not possible).

Values of MSE may be used for comparative purposes. Two or more statistical models may be compared using their MSEs—as a measure of how well they explain a given set of observations: An unbiased estimator (estimated from a statistical model) with the smallest variance among all unbiased estimators is the best unbiased estimator or MVUE (Minimum-Variance Unbiased Estimator).

Both analysis of variance and linear regression techniques estimate the MSE as part of the analysis and use the estimated MSE to determine the statistical significance of the factors or predictors under study. The goal of experimental design is to construct experiments in such a way that when the observations are analyzed, the MSE is close to zero relative to the magnitude of at least one of the estimated treatment effects.

In one-way analysis of variance, MSE can be calculated by the division of the sum of squared errors and the degree of freedom. Also, the f-value is the ratio of the mean squared treatment and the MSE.

MSE is also used in several stepwise regression techniques as part of the determination as to how many predictors from a candidate set to include in a model for a given set of observations.

Applications[edit]

  • Minimizing MSE is a key criterion in selecting estimators: see minimum mean-square error. Among unbiased estimators, minimizing the MSE is equivalent to minimizing the variance, and the estimator that does this is the minimum variance unbiased estimator. However, a biased estimator may have lower MSE; see estimator bias.
  • In statistical modelling the MSE can represent the difference between the actual observations and the observation values predicted by the model. In this context, it is used to determine the extent to which the model fits the data as well as whether removing some explanatory variables is possible without significantly harming the model’s predictive ability.
  • In forecasting and prediction, the Brier score is a measure of forecast skill based on MSE.

Loss function[edit]

Squared error loss is one of the most widely used loss functions in statistics[citation needed], though its widespread use stems more from mathematical convenience than considerations of actual loss in applications. Carl Friedrich Gauss, who introduced the use of mean squared error, was aware of its arbitrariness and was in agreement with objections to it on these grounds.[3] The mathematical benefits of mean squared error are particularly evident in its use at analyzing the performance of linear regression, as it allows one to partition the variation in a dataset into variation explained by the model and variation explained by randomness.

Criticism[edit]

The use of mean squared error without question has been criticized by the decision theorist James Berger. Mean squared error is the negative of the expected value of one specific utility function, the quadratic utility function, which may not be the appropriate utility function to use under a given set of circumstances. There are, however, some scenarios where mean squared error can serve as a good approximation to a loss function occurring naturally in an application.[10]

Like variance, mean squared error has the disadvantage of heavily weighting outliers.[11] This is a result of the squaring of each term, which effectively weights large errors more heavily than small ones. This property, undesirable in many applications, has led researchers to use alternatives such as the mean absolute error, or those based on the median.

See also[edit]

  • Bias–variance tradeoff
  • Hodges’ estimator
  • James–Stein estimator
  • Mean percentage error
  • Mean square quantization error
  • Mean square weighted deviation
  • Mean squared displacement
  • Mean squared prediction error
  • Minimum mean square error
  • Minimum mean squared error estimator
  • Overfitting
  • Peak signal-to-noise ratio

Notes[edit]

  1. ^ This can be proved by Jensen’s inequality as follows. The fourth central moment is an upper bound for the square of variance, so that the least value for their ratio is one, therefore, the least value for the excess kurtosis is −2, achieved, for instance, by a Bernoulli with p=1/2.

References[edit]

  1. ^ a b «Mean Squared Error (MSE)». www.probabilitycourse.com. Retrieved 2020-09-12.
  2. ^ Bickel, Peter J.; Doksum, Kjell A. (2015). Mathematical Statistics: Basic Ideas and Selected Topics. Vol. I (Second ed.). p. 20. If we use quadratic loss, our risk function is called the mean squared error (MSE) …
  3. ^ a b Lehmann, E. L.; Casella, George (1998). Theory of Point Estimation (2nd ed.). New York: Springer. ISBN 978-0-387-98502-2. MR 1639875.
  4. ^ Gareth, James; Witten, Daniela; Hastie, Trevor; Tibshirani, Rob (2021). An Introduction to Statistical Learning: with Applications in R. Springer. ISBN 978-1071614174.
  5. ^ Wackerly, Dennis; Mendenhall, William; Scheaffer, Richard L. (2008). Mathematical Statistics with Applications (7 ed.). Belmont, CA, USA: Thomson Higher Education. ISBN 978-0-495-38508-0.
  6. ^ A modern introduction to probability and statistics : understanding why and how. Dekking, Michel, 1946-. London: Springer. 2005. ISBN 978-1-85233-896-1. OCLC 262680588.{{cite book}}: CS1 maint: others (link)
  7. ^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences., McGraw Hill, 1960, page 288.
  8. ^ Mood, A.; Graybill, F.; Boes, D. (1974). Introduction to the Theory of Statistics (3rd ed.). McGraw-Hill. p. 229.
  9. ^ DeGroot, Morris H. (1980). Probability and Statistics (2nd ed.). Addison-Wesley.
  10. ^ Berger, James O. (1985). «2.4.2 Certain Standard Loss Functions». Statistical Decision Theory and Bayesian Analysis (2nd ed.). New York: Springer-Verlag. p. 60. ISBN 978-0-387-96098-2. MR 0804611.
  11. ^ Bermejo, Sergio; Cabestany, Joan (2001). «Oriented principal component analysis for large margin classifiers». Neural Networks. 14 (10): 1447–1461. doi:10.1016/S0893-6080(01)00106-X. PMID 11771723.

Средние ошибки повторной и бесповторной выборки

Средняя ошибка выборки

Средняя ошибка выборки представляет из себя такое расхождение между средними выборочной и генеральной совокупностями, которое не превышает ±б (дельта).

На основании теоремы Чебышева П. Л. величина средней ошибки при случайном повторном отборе в контрольных работах по статистике рассчитывается по формуле (для среднего количественного признака):

Средняя ошибка выборки

где числитель — дисперсия признака х в выборочной совокупности;
n — численность выборочной совокупности.

Для альтернативного признака формула средней ошибки выборки для доли по теореме Я. Бернулли рассчитывается по формуле:

формула средней ошибки для альтернативного признака

где р(1- р) — дисперсия доли признака в генеральной совокупности;
n — объем выборки.

Вследствие, того что дисперсия признака в генеральной совокупности точно не известна, на практике используют значение дисперсии, которое рассчитано для выборочной совокупности на основании закона больших чисел. Согласно данному закону выборочная совокупность при большом объеме выборки достаточно точно воспроизводит характеристики генеральной совокупности.

Поэтому расчетные формулы средней ошибки при случайном повторном отборе будут выглядеть таким образом:

1. Для среднего количественного признака:

средняя ошибка при случайном повторном отборе

где S^2 — дисперсия признака х в выборочной совокупности;
n — объем выборки.

2. Для доли (альтернативного признака):

средняя ошибка при случайном повторном отборе для альтернативного признака

где w (1 — w) — дисперсия доли изучаемого признака в выборочной совокупности.

В теории вероятностей было показано, что генеральная дисперсия выражается через выборочную согласно формуле:

генеральная дисперсия

В случаях малой выборки, когда её объем меньше 30, необходимо учитывать коэффициент n/(n-1). Тогда среднюю ошибку малой выборки рассчитывают по формуле:

средняя ошибка малой выборки

Так как в процессе бесповторной выборки сокращается численность единиц генеральной совокупности, то в представленных выше формулах расчета средних ошибок выборки нужно подкоренное выражение умножить на 1- (n/N).

Расчетные формулы для такого вида выборки будут выглядеть так:

1. Для средней количественного признака:

средняя ошибка безповторной выборки

где N — объем генеральной совокупности; n — объем выборки.

2. Для доли (альтернативного признака):

средняя ошибка безповторной выборки для альтернативного признака

где 1- (n/N) — доля единиц генеральной совокупности, не попавших в выборку.

Поскольку n всегда меньше N, то дополнительный множитель 1 — (n/N) всегда будет меньше единицы. Это означает, что средняя ошибка при бесповторном отборе всегда будет меньше, чем при повторном. Когда доля единиц генеральной совокупности, которые не попали в выборку, существенная, то величина 1 — (n/N) близка к единице и тогда расчет средней ошибки производится по общей формуле.

Средняя ошибка зависит от следующих факторов:

1. При выполнении принципа случайного отбора средняя ошибка выборки определяется во-первых объемом выборки: чем больше численность, тем меньше величины средней ошибки выборки. Генеральная совокупность характеризуется точнее тогда, когда больше единиц данной совокупности охватывает выборочное наблюдение

2. Средняя ошибка также зависит от степени варьирования признака. Степень варьирования характеризуется дисперсией. Чем меньше вариация признака (дисперсия), тем меньше средняя ошибка выборки. При нулевой дисперсии (признак не варьируется) средняя ошибка выборки равна нулю, таким образом, любая единица генеральной совокупности будет характеризовать всю совокупность по этому признаку.

Источник: Балинова B.C. Статистика в вопросах и ответах: Учеб. пособие. — М.: ТК. Велби, Изд-во Проспект, 2004. — 344 с.

11.2. Оценка результатов выборочного наблюдения

11.2.1. Средняя и предельная ошибки выборки. Построение доверительных границ для средней и доли

Средняя ошибка выборки показывает, насколько отклоняется в среднем параметр выборочной совокупности от соответствующего параметра генеральной. Если рассчитать среднюю из ошибок всех возможных выборок определенного вида заданного объема (n), извлеченных из одной и той же генеральной совокупности, то получим их обобщающую характеристику — среднюю ошибку выборки (mu).

В теории выборочного наблюдения выведены формулы для определения mu, которые индивидуальны для разных способов отбора (повторного и бесповторного), типов используемых выборок и видов оцениваемых статистических показателей.

Например, если применяется повторная собственно случайная выборка, то mu определяется как:

— при оценивании среднего значения признака;

— если признак альтернативный, и оценивается доля.

При бесповторном собственно случайном отборе в формулы вносится поправка (1 — n/N):

— для среднего значения признака;

— для доли.

Вероятность получения именно такой величины ошибки всегда равна 0,683. На практике же предпочитают получать данные с большей вероятностью, но это приводит к возрастанию величины ошибки выборки.

Предельная ошибка выборки (Delta) равна t-кратному числу средних ошибок выборки (в теории выборки принято коэффициент t называть коэффициентом доверия):

Delta =t mu.

Если ошибку выборки увеличить в два раза (t = 2), то получим гораздо большую вероятность того, что она не превысит определенного предела (в нашем случае — двойной средней ошибки) — 0,954. Если взять t = 3, то доверительная вероятность составит 0,997 — практически достоверность.

Уровень предельной ошибки выборки зависит от следующих факторов:

  • степени вариации единиц генеральной совокупности;
  • объема выборки;
  • выбранных схем отбора (бесповторный отбор дает меньшую величину ошибки);
  • уровня доверительной вероятности.

Если объем выборки больше 30, то значение t определяется по таблице нормального распределения, если меньше — по таблице распределения Стьюдента.

Приведем некоторые значения коэффициента доверия из таблицы нормального распределения.

Таблица
11.2.

Значение доверительной вероятности P 0,683 0,954 0,997
Значение коэффициента доверия t 1,0 2,0 3,0

Доверительный интервал для среднего значения признака и для доли в генеральной совокупности устанавливается следующим образом:

Итак, определение границ генеральной средней и доли состоит из следующих этапов:

Ошибки выборки при различных видах отбора

  1. Собственно случайная и механическая выборка. Средняя ошибка собственно случайной и механической выборки находятся по формулам, представленным в табл. 11.3.

Таблица
11.3.
Формулы для расчета средней ошибки собственно случайной и механической выборки (mu)

где sigma^{2} — дисперсия признака в выборочной совокупности.

Пример 11.2. Для изучения уровня фондоотдачи было проведено выборочное обследование 90 предприятий из 225 методом случайной повторной выборки, в результате которого получены данные, представленные в таблице.

Таблица
11.4.

Уровень фондоотдачи, руб. До 1,4 1,4-1,6 1,6-1,8 1,8-2,0 2,0-2,2 2,2 и выше Итого
Количество предприятий 13 15 17 15 16 14 90

В рассматриваемом примере имеем 40%-ную выборку (90 : 225 = 0,4, или 40%). Определим ее предельную ошибку и границы для среднего значения признака в генеральной совокупности по шагам алгоритма:

  1. По результатам выборочного обследования рассчитаем среднее значение и дисперсию в выборочной совокупности:

Таблица
11.5.

Результаты наблюдения Расчетные значения
уровень фондоотдачи, руб., xi количество предприятий, fi середина интервала, xixb4 xixb4fi xixb42fi
До 1,4 13 1,3 16,9 21,97
1,4-1,6 15 1,5 22,5 33,75
1,6-1,8 17 1,7 28,9 49,13
1,8-2,0 15 1,9 28,5 54,15
2,0-2,2 16 2,1 33,6 70,56
2,2 и выше 14 2,3 32,2 74,06
Итого 90 162,6 303,62

Выборочная средняя

Выборочная дисперсия изучаемого признака

  1. Определяем среднюю ошибку повторной случайной выборки

  2. Зададим вероятность, на уровне которой будем говорить о величине предельной ошибки выборки. Чаще всего она принимается равной 0,999; 0,997; 0,954.

Для наших данных определим предельную ошибку выборки, например, с вероятностью 0,954. По таблице значений вероятности функции нормального распределения (см. выдержку из нее, приведенную в Приложении 1) находим величину коэффициента доверия t, соответствующего вероятности 0,954. При вероятности 0,954 коэффициент t равен 2.

  1. Предельная ошибка выборки с вероятностью 0,954 равна

    delta_{x}= tmu_{x}= 2*0.035 = 0.07

  2. Найдем доверительные границы для среднего значения уровня фондоотдачи в генеральной совокупности

Таким образом, в 954 случаях из 1000 среднее значение фондоотдачи будет не выше 1,88 руб. и не ниже 1,74 руб.

Выше была использована повторная схема случайного отбора. Посмотрим, изменятся ли результаты обследования, если предположить, что отбор осуществлялся по схеме бесповторного отбора. В этом случае расчет средней ошибки проводится по формуле

Тогда при вероятности равной 0,954 величина предельной ошибки выборки составит:

delta_{x}= tmu_{x}= 2*0.027 = 0.054

Доверительные границы для среднего значения признака при бесповторном случайном отборе будут иметь следующие значения:

Сравнив результаты двух схем отбора, можно сделать вывод о том, что применение бесповторной случайной выборки дает более точные результаты по сравнению с применением повторного отбора при одной и той же доверительной вероятности. При этом, чем больше объем выборки, тем существеннее сужаются границы значений средней при переходе от одной схемы отбора к другой.

По данным примера определим, в каких границах находится доля предприятий с уровнем фондоотдачи, не превышающим значения 2,0 руб., в генеральной совокупности:

  1. рассчитаем выборочную долю.

Количество предприятий в выборке с уровнем фондоотдачи, не превышающим значения 2,0 руб., составляет 60 единиц. Тогда

m = 60, n = 90, w = m/n = 60 : 90 = 0,667;

  1. рассчитаем дисперсию доли в выборочной совокупности

sigma_{w}^{2}= w(1 - w) = 0,667(1 - 0,667) = 0,222;

  1. средняя ошибка выборки при использовании повторной схемы отбора составит

Если предположить, что была использована бесповторная схема отбора, то средняя ошибка выборки с учетом поправки на конечность совокупности составит

  1. зададим доверительную вероятность и определим предельную ошибку выборки.

При значении вероятности Р = 0,997 по таблице нормального распределения получаем значение для коэффициента доверия t = 3 (см. выдержку из нее, приведенную в Приложении 1):

delta_{x}= tmu_{x}= 3*0.04 = 0.12

  1. установим границы для генеральной доли с вероятностью 0,997:

Таким образом, с вероятностью 0,997 можно утверждать, что в генеральной совокупности доля предприятий с уровнем фондоотдачи, не превышающим значения 2,0 руб., не меньше, чем 54,7%, и не больше 78,7%.

  1. Типическая выборка. При типической выборке генеральная совокупность объектов разбита на k групп, тогда

N1 + N2 + … + Ni + … + Nk = N.

Объем извлекаемых из каждой типической группы единиц зависит от принятого способа отбора; их общее количество образует необходимый объем выборки

n1 + n2 + … + ni + … + nk = n.

Существуют следующие два способа организации отбора внутри типической группы: пропорциональной объему типических групп и пропорциональной степени колеблемости значений признака у единиц наблюдения в группах. Рассмотрим первый из них, как наиболее часто используемый.

Отбор, пропорциональный объему типических групп, предполагает, что в каждой из них будет отобрано следующее число единиц совокупности:

n = ni · Ni/N

где ni — количество извлекаемых единиц для выборки из i-й типической группы;

n — общий объем выборки;

Ni — количество единиц генеральной совокупности, составивших i-ю типическую группу;

N — общее количество единиц генеральной совокупности.

Отбор единиц внутри групп происходит в виде случайной или механической выборки.

Формулы для оценивания средней ошибки выборки для среднего и доли представлены в табл. 11.6.

Таблица
11.6.
Формулы для расчета средней ошибки выборки (mu) при использовании типического отбора, пропорционального объему типических групп

Здесь sigma^{2} — средняя из групповых дисперсий типических групп.

Пример 11.3. В одном из московских вузов проведено выборочное обследование студентов с целью определения показателя средней посещаемости вузовской библиотеки одним студентом за семестр. Для этого была использована 5%-ная бесповторная типическая выборка, типические группы которой соответствуют номеру курса. При отборе, пропорциональном объему типических групп, получены следующие данные:

Таблица
11.7.

Номер курса Всего студентов, чел., Ni Обследовано в результате выборочного наблюдения, чел., ni Среднее число посещений библиотеки одним студентом за семестр, xi Внутригрупповая выборочная дисперсия, sigma_{i}^{2}
1 650 33 11 6
2 610 31 8 15
3 580 29 5 18
4 360 18 6 24
5 350 17 10 12
Итого 2 550 128 8

Число студентов, которое необходимо обследовать на каждом курсе, рассчитаем следующим образом:

  • общий объем выборочной совокупности:

    n = 2550/130*5 =128 (чел.);

  • количество единиц, отобранных из каждой типической группы:

аналогично для других групп:

n2 = 31 (чел.);

n3 = 29 (чел.);

n4 = 18 (чел.);

n5 = 17 (чел.).

Проведем необходимые расчеты.

  1. Выборочная средняя, исходя из значений средних типических групп, составит:

  2. Средняя из внутригрупповых дисперсий

  3. Средняя ошибка выборки:

    С вероятностью 0,954 находим предельную ошибку выборки:

    delta_{x} = tmu_{x} = 2*0.334 = 0.667

  4. Доверительные границы для среднего значения признака в генеральной совокупности:

Таким образом, с вероятностью 0,954 можно утверждать, что один студент за семестр посещает вузовскую библиотеку в среднем от семи до девяти раз.

  1. Малая выборка. В связи с небольшим объемом выборочной совокупности те формулы для определения ошибок выборки, которые использовались нами ранее при «больших» выборках, становятся неподходящими и требуют корректировки.

Среднюю ошибку малой выборки определяют по формуле

Предельная ошибка малой выборки:

delta_{MB}= tmu_{MB}

Распределение значений выборочных средних всегда имеет нормальный закон распределения (или приближается к нему) при п > 100, независимо от характера распределения генеральной совокупности. Однако в случае малых выборок действует иной закон распределения — распределение Стьюдента. В этом случае коэффициент доверия находится по таблице t-распределения Стьюдента в зависимости от величины доверительной вероятности Р и объема выборки п. В Приложении 1 приводится фрагмент таблицы t-распределения Стьюдента, представленной в виде зависимости доверительной вероятности от объема выборки и коэффициента доверия t.

Пример 11.4. Предположим, что выборочное обследование восьми студентов академии показало, что на подготовку к контрольной работе по статистике они затратили следующее количество часов: 8,5; 8,0; 7,8; 9,0; 7,2; 6,2; 8,4; 6,6.

Оценим выборочные средние затраты времени и построим доверительный интервал для среднего значения признака в генеральной совокупности, приняв доверительную вероятность равной 0,95.

  1. Среднее значение признака в выборке равно

  2. Значение среднего квадратического отклонения составляет

  3. Средняя ошибка выборки:

  4. Значение коэффициента доверия t = 2,365 для п = 8 и Р = 0,95 .
  5. Предельная ошибка выборки:

    delta_{MB}= tmu_{MB}=2,365*0,344 = 0,81356 ~ 0,81 (ч)

  6. Доверительный интервал для среднего значения признака в генеральной совокупности:

То есть с вероятностью 0,95 можно утверждать, что затраты времени студента на подготовку к контрольной работе находятся в пределах от 6,9 до 8,5 ч.

11.2.2. Определение численности выборочной совокупности

Перед непосредственным проведением выборочного наблюдения всегда решается вопрос, сколько единиц исследуемой совокупности необходимо отобрать для обследования. Формулы для определения численности выборки выводят из формул предельных ошибок выборки в соответствии со следующими исходными положениями (табл. 11.7):

  1. вид предполагаемой выборки;
  2. способ отбора (повторный или бесповторный);
  3. выбор оцениваемого параметра (среднего значения признака или доли).

Кроме того, следует заранее определиться со значением доверительной вероятности, устраивающей потребителя информации, и с размером допустимой предельной ошибки выборки.

Таблица
11.8.
Формулы для определения численности выборочной совокупности

Примечание: при использовании приведенных в таблице формул рекомендуется получаемую численность выборки округлять в большую сторону для обеспечения некоторого запаса в точности.

Пример 11.5. Рассчитаем, сколько из 507 промышленных предприятий следует проверить налоговой инспекции, чтобы с вероятностью 0,997 определить долю предприятий с нарушениями в уплате налогов. По данным прошлого аналогичного обследования величина среднего квадратического отклонения составила 0,15; размер ошибки выборки предполагается получить не выше, чем 0,05.

При использовании повторного случайного отбора следует проверить

При бесповторном случайном отборе потребуется проверить

Как видим, использование бесповторного отбора позволяет проводить обследование гораздо меньшего числа объектов.

Пример 11.6. Планируется провести обследование заработной платы на предприятиях отрасли методом случайного бесповторного отбора. Какова должна быть численность выборочной совокупности, если на момент обследования в отрасли число занятых составляло 100 000 чел.? Предельная ошибка выборки не должна превышать 100 руб. с вероятностью 0,954. По результатам предыдущих обследований заработной платы в отрасли известно, что среднее квадратическое отклонение составляет 500 руб.

Следовательно, для решения поставленной задачи необходимо включить в выборку не менее 100 человек.

В статистика, то среднеквадратичная ошибка (MSE)[1][2] или среднеквадратическое отклонение (MSD) из оценщик (процедуры оценки ненаблюдаемой величины) измеряет средний квадратов ошибки — то есть средний квадрат разницы между оценочными и фактическими значениями. MSE — это функция риска, соответствующий ожидаемое значение квадрата ошибки потери. Тот факт, что MSE почти всегда строго положительный (а не нулевой), объясняется тем, что случайность или потому что оценщик не учитывает информацию это может дать более точную оценку.[3]

MSE — это мера качества оценки — она ​​всегда неотрицательна, а значения, близкие к нулю, лучше.

МСЭ — второй момент (о происхождении) ошибки и, таким образом, включает в себя как отклонение оценщика (насколько разбросаны оценки от одного образец данных другому) и его предвзятость (насколько далеко среднее оценочное значение от истинного значения). Для объективный оценщик, MSE — это дисперсия оценки. Как и дисперсия, MSE имеет те же единицы измерения, что и квадрат оцениваемой величины. По аналогии с стандартное отклонение, извлечение квадратного корня из MSE дает среднеквадратичную ошибку или среднеквадратичное отклонение (RMSE или RMSD), который имеет те же единицы, что и оцениваемое количество; для несмещенной оценки RMSE — это квадратный корень из отклонение, известный как стандартная ошибка.

Определение и основные свойства

MSE либо оценивает качество предсказатель (т.е. функция, отображающая произвольные входные данные в выборку значений некоторых случайная переменная ) или оценщик (т.е. математическая функция отображение образец данных для оценки параметр из численность населения из которого берутся данные). Определение MSE различается в зависимости от того, описывается ли предсказатель или оценщик.

Предсказатель

Если вектор п прогнозы генерируются из выборки п точки данных по всем переменным, и Y — вектор наблюдаемых значений прогнозируемой переменной, при этом hat {Y} будучи предсказанными значениями (например, по методу наименьших квадратов), то MSE в пределах выборки предсказателя вычисляется как

{ displaystyle operatorname {MSE} = { frac {1} {n}} sum _ {i = 1} ^ {n} (Y_ {i} - { hat {Y_ {i}}}) ^ { 2}.}

Другими словами, MSE — это иметь в виду { displaystyle left ({ frac {1} {n}} sum _ {i = 1} ^ {n} right)} из квадраты ошибок { displaystyle (Y_ {i} - { hat {Y_ {i}}}) ^ {2}}. Это легко вычисляемая величина для конкретного образца (и, следовательно, зависит от образца).

В матрица обозначение

{ displaystyle operatorname {MSE} = { frac {1} {n}} sum _ {i = 1} ^ {n} (e_ {i}) ^ {2} = { frac {1} {n }} mathbf {e} ^ { mathsf {T}} mathbf {e}}

куда e_ {i} является { displaystyle (Y_ {i} - { hat {Y_ {i}}})} и { displaystyle mathbf {e}} это { Displaystyle п раз 1} матрица.

MSE также можно вычислить на q точки данных, которые не использовались при оценке модели, либо потому, что они были задержаны для этой цели, либо потому, что эти данные были получены заново. В этом процессе (известном как перекрестная проверка ), MSE часто называют среднеквадратичная ошибка прогноза, и вычисляется как

{ displaystyle operatorname {MSPE} = { frac {1} {q}} sum _ {i = n + 1} ^ {n + q} (Y_ {i} - { hat {Y_ {i}} }) ^ {2}.}

Оценщик

MSE оценщика hat { theta} по неизвестному параметру theta определяется как[2]

{ displaystyle operatorname {MSE} ({ hat { theta}}) = operatorname {E} _ { theta} left [({ hat { theta}} - theta) ^ {2} верно].}

Это определение зависит от неизвестного параметра, но MSE априори свойство оценщика. MSE может быть функцией неизвестных параметров, и в этом случае любой оценщик MSE на основе оценок этих параметров будет функцией данных (и, следовательно, случайной величиной). Если оценщик hat { theta} выводится как статистика выборки и используется для оценки некоторого параметра совокупности, тогда ожидание относится к распределению выборки статистики выборки.

MSE можно записать как сумму отклонение оценщика и квадрата предвзятость оценщика, обеспечивая полезный способ вычисления MSE и подразумевая, что в случае несмещенных оценок MSE и дисперсия эквивалентны.[4]

{ displaystyle operatorname {MSE} ({ hat { theta}}) = operatorname {Var} _ { theta} ({ hat { theta}}) + operatorname {Bias} ({ hat { theta}}, theta) ^ {2}.}

Доказательство отношения дисперсии и предвзятости

{ displaystyle { begin {align} operatorname {MSE} ({ hat { theta}}) & = operatorname {E} _ { theta} left [({ hat { theta}} - theta) ^ {2} right] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] + operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right] & = operatorname {E } _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} +2 left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right ] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] + operatorname {E} _ { theta} left [2 left ({ hat { theta}} - operatorname {E} _ { theta} [{ шляпа { theta}}] right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) right] + operatorname {E} _ { the ta} left [ left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} right] & = operatorname {E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] +2 left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) operatorname {E} _ { theta} left [{ hat { theta }} - operatorname {E} _ { theta} [{ hat { theta}}] right] + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} && operatorname {E} _ { theta} [{ hat { theta}}] - theta = { text {const.}} & = operatorname { E} _ { theta} left [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] +2 left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) left ( operatorname {E} _ { theta} [{ hat { theta}}] - operatorname {E} _ { theta} [{ hat { theta}}] right) + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} && operatorname {E} _ { theta} [{ hat { theta}}] = { text {const.}} & = operatorname {E} _ { theta} l eft [ left ({ hat { theta}} - operatorname {E} _ { theta} [{ hat { theta}}] right) ^ {2} right] + left ( operatorname {E} _ { theta} [{ hat { theta}}] - theta right) ^ {2} & = operatorname {Var} _ { theta} ({ hat { theta} }) + operatorname {Bias} _ { theta} ({ hat { theta}}, theta) ^ {2} end {align}}}
В качестве альтернативы у нас есть
{ displaystyle { begin {align} mathbb {E} ( theta - { hat { theta}}) ^ {2} & = mathbb {E} ({ hat { theta}} ^ {2 }) + mathbb {E} ( theta ^ {2}) - 2 theta mathbb {E} ({ hat { theta}}) & = operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}}) ^ {2} + theta ^ {2} -2 theta mathbb {E} ({ hat { theta}}) & = operatorname {Var} ({ hat { theta}}) + ( mathbb {E} { hat { theta}} - theta) ^ {2} & = operatorname {Var } ({ hat { theta}}) + operatorname {Bias} ^ {2} ({ hat { theta}}) end {align}}}

Но в реальном случае моделирования MSE можно описать как добавление дисперсии модели, систематической ошибки модели и неснижаемой неопределенности. Согласно соотношению, MSE оценщиков может быть просто использована для эффективность сравнение, которое включает информацию о дисперсии и смещении оценки. Это называется критерием MSE.

В регрессе

В регрессивный анализ, построение графиков — более естественный способ просмотра общей тенденции всех данных. Среднее значение расстояния от каждой точки до прогнозируемой регрессионной модели может быть вычислено и показано как среднеквадратичная ошибка. Возведение в квадрат критически важно для уменьшения сложности с отрицательными знаками. Чтобы свести к минимуму MSE, модель может быть более точной, что означает, что модель ближе к фактическим данным. Одним из примеров линейной регрессии с использованием этого метода является метод наименьших квадратов —Который оценивает соответствие модели линейной регрессии модели двумерный набор данных[5], но чье ограничение связано с известным распределением данных.

Период, термин среднеквадратичная ошибка иногда используется для обозначения объективной оценки дисперсии ошибки: остаточная сумма квадратов делится на количество степени свободы. Это определение известной вычисленной величины отличается от приведенного выше определения вычисленной MSE предиктора тем, что используется другой знаменатель. Знаменатель — это размер выборки, уменьшенный на количество параметров модели, оцененных на основе тех же данных, (н-р) за п регрессоры или (п-п-1) если используется перехват (см. ошибки и остатки в статистике Больше подробностей).[6] Хотя MSE (как определено в этой статье) не является объективной оценкой дисперсии ошибки, она последовательный, учитывая непротиворечивость предсказателя.

В регрессионном анализе «среднеквадратичная ошибка», часто называемая среднеквадратичная ошибка прогноза или «среднеквадратичная ошибка вне выборки», также может относиться к среднему значению квадратичные отклонения прогнозов на основе истинных значений в тестовом пространстве вне выборки, сгенерированных моделью, оцененной в конкретном пространстве выборки. Это также известная вычисляемая величина, которая зависит от образца и тестового пространства вне образца.

Примеры

Иметь в виду

Предположим, у нас есть случайная выборка размера п от населения, X_ {1}, точки, X_ {n}. Предположим, что образцы были выбраны с заменой. Это п единицы выбираются по одному, и ранее выбранные единицы по-прежнему имеют право на выбор для всех п рисует. Обычная оценка для му это среднее по выборке[1]

overline {X} = frac {1} {n} sum_ {i = 1} ^ n X_i

ожидаемое значение которого равно истинному среднему значению му (так что это беспристрастно) и среднеквадратичная ошибка

{ Displaystyle OperatorName {MSE} left ({ overline {X}} right) = operatorname {E} left [ left ({ overline {X}} - mu right) ^ {2} right] = left ({ frac { sigma} { sqrt {n}}} right) ^ {2} = { frac { sigma ^ {2}} {n}}}

куда sigma ^ {2} это дисперсия населения.

Для Гауссово распределение, это лучший объективный оценщик (то есть с самой низкой MSE среди всех несмещенных оценок), но не, скажем, для равномерное распределение.

Дисперсия

Обычной оценкой дисперсии является исправлено выборочная дисперсия:

{ displaystyle S_ {n-1} ^ {2} = { frac {1} {n-1}} sum _ {i = 1} ^ {n} left (X_ {i} - { overline { X}} right) ^ {2} = { frac {1} {n-1}} left ( sum _ {i = 1} ^ {n} X_ {i} ^ {2} -n { overline {X}} ^ {2} right).}

Это объективно (его ожидаемое значение sigma ^ {2}), поэтому также называется объективная дисперсия выборки, и его MSE[7]

{ displaystyle operatorname {MSE} (S_ {n-1} ^ {2}) = { frac {1} {n}} left ( mu _ {4} - { frac {n-3} { n-1}} sigma ^ {4} right) = { frac {1} {n}} left ( gamma _ {2} + { frac {2n} {n-1}} right) sigma ^ {4},}

куда mu _ {4} это четвертый центральный момент распределения или населения, и gamma_2 = mu_4 / sigma ^ 4-3 это избыточный эксцесс.

Однако можно использовать другие оценки для sigma ^ {2} которые пропорциональны S ^ 2_ {n-1}, и соответствующий выбор всегда может дать более низкую среднеквадратичную ошибку. Если мы определим

{ displaystyle S_ {a} ^ {2} = { frac {n-1} {a}} S_ {n-1} ^ {2} = { frac {1} {a}} sum _ {i = 1} ^ {n} left (X_ {i} - { overline {X}} , right) ^ {2}}

затем рассчитываем:

{ displaystyle { begin {align} operatorname {MSE} (S_ {a} ^ {2}) & = operatorname {E} left [ left ({ frac {n-1} {a}} S_ {n-1} ^ {2} - sigma ^ {2} right) ^ {2} right] & = operatorname {E} left [{ frac {(n-1) ^ {2 }} {a ^ {2}}} S_ {n-1} ^ {4} -2 left ({ frac {n-1} {a}} S_ {n-1} ^ {2} right) sigma ^ {2} + sigma ^ {4} right] & = { frac {(n-1) ^ {2}} {a ^ {2}}} operatorname {E} left [ S_ {n-1} ^ {4} right] -2 left ({ frac {n-1} {a}} right) operatorname {E} left [S_ {n-1} ^ {2 } right] sigma ^ {2} + sigma ^ {4} & = { frac {(n-1) ^ {2}} {a ^ {2}}} operatorname {E} left [S_ {n-1} ^ {4} right] -2 left ({ frac {n-1} {a}} right) sigma ^ {4} + sigma ^ {4} && operatorname {E} left [S_ {n-1} ^ {2} right] = sigma ^ {2} & = { frac {(n-1) ^ {2}} {a ^ {2} }} left ({ frac { gamma _ {2}} {n}} + { frac {n + 1} {n-1}} right) sigma ^ {4} -2 left ({ frac {n-1} {a}} right) sigma ^ {4} + sigma ^ {4} && operatorname {E} left [S_ {n-1} ^ {4} right] = operatorname {MSE} (S_ {n-1} ^ {2}) + sigma ^ {4} & = { frac {n-1} {na ^ {2}}} left ((n- 1) gamma _ {2} + n ^ {2} + n right) sigma ^ {4} -2 left ({ frac {n-1} {a}} right) sigma ^ {4 } + sigm а ^ {4} end {выровнено}}}

Это сводится к минимуму, когда

a = frac {(n-1) gamma_2 + n ^ 2 + n} {n} = n + 1 + frac {n-1} {n} gamma_2.

Для Гауссово распределение, куда gamma_2 = 0, это означает, что MSE минимизируется при делении суммы на а = п + 1. Минимальный избыточный эксцесс составляет gamma_2 = -2,[а] что достигается за счет Распределение Бернулли с п = 1/2 (подбрасывание монеты), и MSE минимизируется для { displaystyle a = n-1 + { tfrac {2} {n}}.} Следовательно, независимо от эксцесса, мы получаем «лучшую» оценку (в смысле наличия более низкой MSE), немного уменьшая несмещенную оценку; это простой пример оценщик усадки: один «сжимает» оценку до нуля (уменьшает несмещенную оценку).

Далее, хотя исправленная дисперсия выборки является лучший объективный оценщик (минимальная среднеквадратичная ошибка среди несмещенных оценок) дисперсии для гауссовских распределений, если распределение не является гауссовым, то даже среди несмещенных оценок лучшая несмещенная оценка дисперсии может не быть S ^ 2_ {n-1}.

Гауссово распределение

В следующей таблице приведены несколько оценок истинных параметров популяции, μ и σ.2, для гауссова случая.[8]

Истинное значение Оценщик Среднеквадратичная ошибка
{ displaystyle theta = mu} hat { theta} = несмещенная оценка Средняя численность населения, overline {X} = frac {1} {n} sum_ {i = 1} ^ n (X_i) operatorname {MSE} ( overline {X}) = operatorname {E} (( overline {X} - mu) ^ 2) = left ( frac { sigma} { sqrt {n}} справа) ^ 2
{ Displaystyle theta = sigma ^ {2}} hat { theta} = несмещенная оценка дисперсия населения, S ^ 2_ {n-1} = frac {1} {n-1} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n-1}) = operatorname {E} ((S ^ 2_ {n-1} - sigma ^ 2) ^ 2) = frac {2} {n - 1 } sigma ^ 4
{ Displaystyle theta = sigma ^ {2}} hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n} = frac {1} {n} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n}) = operatorname {E} ((S ^ 2_ {n} - sigma ^ 2) ^ 2) = frac {2n - 1} {n ^ 2} сигма ^ 4
{ Displaystyle theta = sigma ^ {2}} hat { theta} = смещенная оценка дисперсия населения, S ^ 2_ {n + 1} = frac {1} {n + 1} sum_ {i = 1} ^ n left (X_i- overline {X} , right) ^ 2 operatorname {MSE} (S ^ 2_ {n + 1}) = operatorname {E} ((S ^ 2_ {n + 1} - sigma ^ 2) ^ 2) = frac {2} {n + 1 } sigma ^ 4

Интерпретация

MSE равна нулю, что означает, что оценщик hat { theta} предсказывает наблюдения параметра theta с идеальной точностью идеален (но обычно невозможен).

Значения MSE могут использоваться для сравнительных целей. Два и более статистические модели можно сравнить, используя их MSE — как меру того, насколько хорошо они объясняют данный набор наблюдений: несмещенная оценка (рассчитанная на основе статистической модели) с наименьшей дисперсией среди всех несмещенных оценок — это оценка лучший объективный оценщик или MVUE (несмещенная оценка минимальной дисперсии).

Обе линейная регрессия методы, такие как дисперсионный анализ оценить MSE как часть анализа и использовать оценочную MSE для определения Статистическая значимость изучаемых факторов или предикторов. Цель экспериментальная конструкция состоит в том, чтобы построить эксперименты таким образом, чтобы при анализе наблюдений MSE была близка к нулю относительно величины по крайней мере одного из оцененных эффектов лечения.

В односторонний дисперсионный анализ, MSE можно вычислить путем деления суммы квадратов ошибок и степени свободы. Кроме того, значение f — это отношение среднего квадрата обработки и MSE.

MSE также используется в нескольких пошаговая регрессия методы как часть определения того, сколько предикторов из набора кандидатов включить в модель для данного набора наблюдений.

Приложения

  • Минимизация MSE является ключевым критерием при выборе оценщиков: см. минимальная среднеквадратичная ошибка. Среди несмещенных оценщиков минимизация MSE эквивалентна минимизации дисперсии, а оценщик, который делает это, является несмещенная оценка минимальной дисперсии. Однако смещенная оценка может иметь более низкую MSE; видеть систематическая ошибка оценки.
  • В статистическое моделирование MSE может представлять разницу между фактическими наблюдениями и значениями наблюдений, предсказанными моделью. В этом контексте он используется для определения степени, в которой модель соответствует данным, а также возможности удаления некоторых объясняющих переменных без значительного ущерба для прогнозирующей способности модели.
  • В прогнозирование и прогноз, то Оценка Бриера это мера умение прогнозировать на основе MSE.

Функция потерь

Квадратичная потеря ошибок — одна из наиболее широко используемых функции потерь в статистике[нужна цитата ], хотя его широкое использование проистекает больше из математического удобства, чем из соображений реальных потерь в приложениях. Карл Фридрих Гаусс, который ввел использование среднеквадратичной ошибки, сознавал ее произвол и был согласен с возражениями против нее на этих основаниях.[3] Математические преимущества среднеквадратичной ошибки особенно очевидны при ее использовании при анализе производительности линейная регрессия, поскольку он позволяет разделить вариацию в наборе данных на вариации, объясняемые моделью, и вариации, объясняемые случайностью.

Критика

Использование среднеквадратичной ошибки без вопросов подвергалось критике со стороны теоретик решений Джеймс Бергер. Среднеквадратичная ошибка — это отрицательное значение ожидаемого значения одного конкретного вспомогательная функция, квадратичная функция полезности, которая может не подходить для использования в данном наборе обстоятельств. Однако есть некоторые сценарии, в которых среднеквадратичная ошибка может служить хорошим приближением к функции потерь, естественным образом возникающей в приложении.[9]

подобно отклонение, среднеквадратичная ошибка имеет тот недостаток, что выбросы.[10] Это результат возведения в квадрат каждого члена, который фактически дает больший вес большим ошибкам, чем малым. Это свойство, нежелательное для многих приложений, заставило исследователей использовать альтернативы, такие как средняя абсолютная ошибка, или основанные на медиана.

Смотрите также

  • Компромисс смещения и дисперсии
  • Оценщик Ходжеса
  • Оценка Джеймса – Стейна
  • Средняя процентная ошибка
  • Среднеквадратичная ошибка квантования
  • Среднеквадратичное взвешенное отклонение
  • Среднеквадратичное смещение
  • Среднеквадратичная ошибка прогноза
  • Минимальная среднеквадратичная ошибка
  • Оценщик минимальной среднеквадратичной ошибки
  • Пиковое отношение сигнал / шум

Примечания

  1. ^ Это может быть доказано Неравенство Дженсена следующим образом. Четвертый центральный момент является верхней границей квадрата дисперсии, так что наименьшее значение для их отношения равно единице, следовательно, наименьшее значение для избыточный эксцесс равно −2, что достигается, например, Бернулли с п=1/2.

Рекомендации

  1. ^ а б «Список вероятностных и статистических символов». Математическое хранилище. 2020-04-26. Получено 2020-09-12.
  2. ^ а б «Среднеквадратичная ошибка (MSE)». www.probabilitycourse.com. Получено 2020-09-12.
  3. ^ а б Lehmann, E. L .; Казелла, Джордж (1998). Теория точечного оценивания (2-е изд.). Нью-Йорк: Спрингер. ISBN  978-0-387-98502-2. Г-Н  1639875.
  4. ^ Вакерли, Деннис; Менденхолл, Уильям; Шеаффер, Ричард Л. (2008). Математическая статистика с приложениями (7-е изд.). Белмонт, Калифорния, США: Высшее образование Томсона. ISBN  978-0-495-38508-0.
  5. ^ Современное введение в вероятность и статистику: понимание, почему и как. Деккинг, Мишель, 1946-. Лондон: Спрингер. 2005 г. ISBN  978-1-85233-896-1. OCLC  262680588.CS1 maint: другие (ссылка на сайт)
  6. ^ Стил, Р.Г.Д., и Торри, Дж. Х., Принципы и процедуры статистики с особым акцентом на биологические науки., Макгроу Хилл, 1960, стр.288.
  7. ^ Настроение, А .; Graybill, F .; Боэс, Д. (1974). Введение в теорию статистики (3-е изд.). Макгроу-Хилл. п.229.
  8. ^ ДеГрут, Моррис Х. (1980). вероятность и статистика (2-е изд.). Эддисон-Уэсли.
  9. ^ Бергер, Джеймс О. (1985). «2.4.2 Некоторые стандартные функции потерь». Статистическая теория принятия решений и байесовский анализ (2-е изд.). Нью-Йорк: Springer-Verlag. п.60. ISBN  978-0-387-96098-2. Г-Н  0804611.
  10. ^ Бермехо, Серхио; Кабестани, Джоан (2001). «Ориентированный анализ главных компонентов для классификаторов с большой маржой». Нейронные сети. 14 (10): 1447–1461. Дои:10.1016 / S0893-6080 (01) 00106-X. PMID  11771723.

1.1. Ошибки
выборочного наблюдения

Средняя
ошибка выборки
показывает, как генеральная средняя отклоняется в среднем от выборочной средней в ту или другую сторону. Формула
расчета средней ошибки выборки определяется видом исследуемого признака единиц
совокупности (количественный или альтернативный) и
способом отбора (бесповторный или повторный).

·        
Если отбор повторный, а признак количественный
средняя ошибка выборки определяется по формуле

 , где  , где — дисперсия признака в выборочной совокупности

n- число единиц
в выборке

·        
Если отбор бесповторный, а признак
количественный

, где N
число единиц в генеральной совокупности

·        
Если отбор повторный, а признак альтернативный

, где N
число единиц в генеральной совокупности

·        
Если отбор повторный, а признак альтернативный

, где w-выборочная
доля

·        
Если отбор бесповторный, а признак
альтернативный

Предельная ошибка выборки показывающая с определенной степенью вероятности
отклонения средней от выборочной средней.

Предельная ошибка выборки

Предельная ошибка выборки показывающая с определенной степенью вероятности
отклонения средней от выборочной средней.

Предельная ошибка выборки

 , где параметр t зависит
от вероятности

Некоторые значения параметра t приведены
в таблице:

Вероятность, p

0.95

0.954

0.9876

0.9907

0.9973

0.9999

Параметр t

1.96

2.0

2.5

2.6

3.0

4.0

·        
Если отбор повторный, а признак количественный
средняя ошибка выборки определяется по формуле

 , где  , где — дисперсия признака в выборочной совокупности

n- число единиц
в выборке

·        
Если отбор бесповторный, а признак
количественный

, где N
число единиц в генеральной совокупности

·        
Если отбор повторный, а признак альтернативный

, где N
число единиц в генеральной совокупности

·        
Если отбор повторный, а признак альтернативный

, где w-выборочная
доля

·        
Если отбор бесповторный, а признак
альтернативный

Доверительный интервал для генеральной средней

Доверительный интервал для генеральной средней

 

 Доверительный интервал для
генеральной доли

Пример расчета  доверительного
интервала:

При выборочном обследовании 5% продукции по методу случайного
бесповторного отбора получены данные о содержании сахара в образцах:

Сахарность, %

Число
проб ,ед.

16-17

17-18

18-19

19-20

20-21

 10

158

154

 50

 28

                                           
ИТОГО:                            400

На основании этих данных вычислите:

1. Средний процент сахаристости.

2. Дисперсию и среднее квадратическое
отклонение.

3. С вероятностью 0.954 возможные пределы среднего значения
саха­ристости продукции для всей партии.

4. С вероятностью 0.997 возможный процент продукции высшего
сорта по всей партии, если известно, что из 400 проб, попавших в вы­борку , 80
ед. отнесены к продукции высшего сорта.

Решение.

1.
Средний процент сахаристости найдем по формуле средней взвешенной

Пример расчета  доверительного
интервала:

При выборочном обследовании 5% продукции по методу случайного
бесповторного отбора получены данные о содержании сахара в образцах:

Сахарность, %

Число
проб ,ед.

16-17

17-18

18-19

19-20

20-21

 10

158

154

 50

 28

                                           
ИТОГО:                            400

На основании этих данных вычислите:

1. Средний процент сахаристости.

2. Дисперсию и среднее квадратическое
отклонение.

3. С вероятностью 0.954 возможные пределы среднего значения
саха­ристости продукции для всей партии.

4. С вероятностью 0.997 возможный процент продукции высшего
сорта по всей партии, если известно, что из 400 проб, попавших в вы­борку , 80
ед. отнесены к продукции высшего сорта.

Решение.

1.
Средний процент сахаристости найдем по формуле средней взвешенной

, где xi
середина i-го интервала

=18,32 %

2.
Дисперсия

=18,32 %

2.
Дисперсия

=336,49

D(X)=336.49–
18.322=0.8676

Среднее квадратическое отклонение

=0,93%

5. Предельная ошибка  для
среднего процента сахаристости

=0,93%

5. Предельная ошибка  для
среднего процента сахаристости

для вероятности 0,954 параметр t=2.0

 

Доверительный интервал для среднего значения процента
сахаристости

Доверительный интервал для среднего значения процента
сахаристости

С вероятностью 0,954 можно утверждать, что в генеральной
совокупности средний процент сахаристости лежит в пределах от 18,23% до 18,41%.

5. Доля продукции высшего сорта в выборочной совокупности

Предельная ошибка  для
доли продукции высшего сорта

Предельная ошибка  для
доли продукции высшего сорта

для вероятности 0,997 параметр t=3.0

Доверительный интервал для доли продукции высшего сорта

Доверительный интервал для доли продукции высшего сорта

С вероятностью 0,997 можно утверждать, что в генеральной
совокупности доля продукции высшего сорта лежит в пределах от 14,0% до 26,0%.

Для изучения мнения студентов о проведении определенных мероприятий из совокупности, состоящей из 10 тыс. человек, методом случайного бесповторного отбора опрошено 600 студентов. Из них 240 одобрили план мероприятий. С вероятностью 0,954 определите пре­дел, в котором находится доля студентов, одобривших мероприятия, во всей совокупности.

Решение:

При собственно-случайном бесповторном отборе среднюю ошибку выборочной доли рассчитывают по формуле:

 Средняя ошибка выборочной доли при собственно-случайном бесповторном отборе

где

ω — доля единиц выборочной совокупности, обладающих изучаемым признаком,

n – численность выборочной совокупности,

N – численность генеральной совокупности.

Доля студентов одобривших мероприятия из числа опрошенных студентов составила:

 Доля студентов одобривших мероприятия

Рассчитаем среднюю   ошибку выборочной   доли:

 Расчёт средней ошибки выборочной доли

Предельная ошибка выборочной доли с вероятностью 0,954 составит:

Δ = μ * t = 0,019 * 2 = 0,039 (или 3,9%).

t — коэффициент доверия.

Значение t табличное (смотри Задачу №32).  

При   Р = 0,954, t = 2,0.

Определим пределы, доли признака в генеральной совокупности следующим образом:

 Пределы доли признака в генеральной совокупности

Пределы доли признака в генеральной совокупности

Пределы генеральной доли признака в генеральной совокупности:

0,4 – 0,039 ˂ р ˂ 0,4 + 0,039

или

0,361 ˂ р ˂ 0,439

С вероятностью 0,954 можно утверждать, что доля студентов, одобривших мероприятия, во всей совокупности находится в пределах от 36,1% до 43,9%.

Понравилась статья? Поделить с друзьями:
  • Ошибка бесключевого доступа на мазда cx5
  • Ошибка бензонасоса форд фокус 2
  • Ошибка белый экран при загрузке
  • Ошибка белые буквы на синем экране
  • Ошибка безопасности что это значит