Что такое систематическая ошибка нормального распределения

Содержание:

Нормальный закон распределения:

Нормальный закон распределения имеет плотность вероятности

Нормальный закон распределения - определение и вычисление с примерами решения

где Нормальный закон распределения - определение и вычисление с примерами решения

График функции плотности вероятности (2.9.1) имеет максимум в точке Нормальный закон распределения - определение и вычисление с примерами решения а точки перегиба отстоят от точки Нормальный закон распределения - определение и вычисление с примерами решения на расстояние Нормальный закон распределения - определение и вычисление с примерами решения При Нормальный закон распределения - определение и вычисление с примерами решения функция (2.9.1) асимптотически приближается к нулю (ее график изображен на рис. 2.9.1).

Нормальный закон распределения - определение и вычисление с примерами решения

Помимо геометрического смысла, параметры нормального закона распределения имеют и вероятностный смысл. Параметр Нормальный закон распределения - определение и вычисление с примерами решения равен математическому ожиданию нормально распределенной случайной величины, а дисперсия Нормальный закон распределения - определение и вычисление с примерами решения Если Нормальный закон распределения - определение и вычисление с примерами решения т.е. X имеет нормальный закон распределения с параметрами Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения то Нормальный закон распределения - определение и вычисление с примерами решения

где Нормальный закон распределения - определение и вычисление с примерами решения– функция Лапласа

Значения функции Нормальный закон распределения - определение и вычисление с примерами решения можно найти по таблице (см. прил., табл. П2). Функция Лапласа нечетна, т.е. Нормальный закон распределения - определение и вычисление с примерами решения Поэтому ее таблица дана только для неотрицательныхНормальный закон распределения - определение и вычисление с примерами решения График функции Лапласа изображен на рис. 2.9.2. При значениях Нормальный закон распределения - определение и вычисление с примерами решения она практически остается постоянной. Поэтому в таблице даны значения функции только для Нормальный закон распределения - определение и вычисление с примерами решения При значениях Нормальный закон распределения - определение и вычисление с примерами решения можно считать, что Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения

Если Нормальный закон распределения - определение и вычисление с примерами решения то

Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Случайная величина X имеет нормальный закон распределения Нормальный закон распределения - определение и вычисление с примерами решения Известно, что Нормальный закон распределения - определение и вычисление с примерами решения а Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения Найти значения параметров Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения

Решение. Воспользуемся формулой (2.9.2): Нормальный закон распределения - определение и вычисление с примерами решения

Так как Нормальный закон распределения - определение и вычисление с примерами решения По таблице функции Лапласа (см. прил., табл. П2) находим, что Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения Поэтому Нормальный закон распределения - определение и вычисление с примерами решения или Нормальный закон распределения - определение и вычисление с примерами решения

Аналогично Нормальный закон распределения - определение и вычисление с примерами решения Так как Нормальный закон распределения - определение и вычисление с примерами решения то Нормальный закон распределения - определение и вычисление с примерами решения По таблице функции Лапласа (см. прил., табл. П2) находим, что Нормальный закон распределения - определение и вычисление с примерами решения Поэтому Нормальный закон распределения - определение и вычисление с примерами решения или Нормальный закон распределения - определение и вычисление с примерами решения Из системы двух уравнений Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения находим, что Нормальный закон распределения - определение и вычисление с примерами решения а  Нормальный закон распределения - определение и вычисление с примерами решения т.е. Нормальный закон распределения - определение и вычисление с примерами решения Итак, случайная величина X имеет нормальный закон распределения N(3;4).

График функции плотности вероятности этого закона распределения изображен на рис. 2.9.3.

Нормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Ошибка измерения X имеет нормальный закон распределения, причем систематическая ошибка равна 1 мк, а дисперсия ошибки равна 4 мк2. Какова вероятность того, что в трех независимых измерениях ошибка ни разу не превзойдет по модулю 2 мк?

Решение. По условиям задачи Нормальный закон распределения - определение и вычисление с примерами решения Вычислим сначала вероятность того, что в одном измерении ошибка не превзойдет 2 мк. По формуле (2.9.2)Нормальный закон распределения - определение и вычисление с примерами решения

Вычисленная вероятность численно равна заштрихованной площади на рис. 2.9.4.

Нормальный закон распределения - определение и вычисление с примерами решения

Каждое измерение можно рассматривать как независимый опыт. Поэтому по формуле Бернулли (2.6.1) вероятность того, что в трех независимых измерениях ошибка ни разу не превзойдет 2 мк, равна Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Функция плотности вероятности случайной величины X имеет вид Нормальный закон распределения - определение и вычисление с примерами решения

Требуется определить коэффициент Нормальный закон распределения - определение и вычисление с примерами решения найти Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения определить тип закона распределения, нарисовать график функции Нормальный закон распределения - определение и вычисление с примерами решения вычислить вероятность Нормальный закон распределения - определение и вычисление с примерами решения

Замечание. Если каждый закон распределения из некоторого семейства законов распределения имеет функцию распределения , Нормальный закон распределения - определение и вычисление с примерами решения где Нормальный закон распределения - определение и вычисление с примерами решения– фиксированная функция распределения, a Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения то говорят, что эти законы распределения принадлежат к одному виду или типу распределений. Параметр Нормальный закон распределения - определение и вычисление с примерами решения называют параметром сдвига, Нормальный закон распределения - определение и вычисление с примерами решения – параметром масштаба.

Решение. Так как (2.9.4) функция плотности вероятности, то интеграл от нее по всей числовой оси должен быть равен единице: Нормальный закон распределения - определение и вычисление с примерами решения

Преобразуем выражение в показателе степени, выделяя полный квадрат: Нормальный закон распределения - определение и вычисление с примерами решения

Тогда (2.9.5) можно записать в виде Нормальный закон распределения - определение и вычисление с примерами решения

Сделаем замену переменных так, чтобы Нормальный закон распределения - определение и вычисление с примерами решения т.е. Нормальный закон распределения - определение и вычисление с примерами решения Пределы интегрирования при этом останутся прежними. Тогда (2.9.6) преобразуется к виду

Нормальный закон распределения - определение и вычисление с примерами решения

Умножим и разделим левую часть равенства на Нормальный закон распределения - определение и вычисление с примерами решения Получим равенство Нормальный закон распределения - определение и вычисление с примерами решения

Так как Нормальный закон распределения - определение и вычисление с примерами решения  как интеграл по всей числовой оси от функции плотности вероятности стандартного нормального закона распределения N(0,1), то приходим к выводу, что

Нормальный закон распределения - определение и вычисление с примерами решения

Поэтому

Нормальный закон распределения - определение и вычисление с примерами решения

Последняя запись означает, что случайная величина имеет нормальный закон распределения с параметрами Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения График функции плотности вероятности этого закона изображен на рис. 2.9.5. Распределение случайной величины X принадлежит к семейству нормальных законов распределения. По формуле (2.9.2)

Нормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Цех на заводе выпускает транзисторы с емкостью коллекторного перехода Нормальный закон распределения - определение и вычисление с примерами решения Сколько транзисторов попадет в группу Нормальный закон распределения - определение и вычисление с примерами решения если в нее попадают транзисторы с емкостью коллекторного перехода от 1,80 до 2,00 пФ. Цех выпустил партию в 1000 штук.

Решение.

Статистическими исследованиями в цеху установлено, что Нормальный закон распределения - определение и вычисление с примерами решения можно трактовать как случайную величину, подчиняющуюся нормальному закону.

Чтобы вычислить количество транзисторов, попадающих в группу Нормальный закон распределения - определение и вычисление с примерами решения необходимо учитывать, что вся партия транзисторов имеет разброс параметров, накрывающий всю (условно говоря) числовую ось. То есть кривая Гаусса охватывает всю числовую ось, центр ее совпадает с Нормальный закон распределения - определение и вычисление с примерами решения (т. к. все установки в цеху настроены на выпуск транзисторов именно с этой емкостью). Вероятность попадания отклонений параметров всех транзисторов на всю числовую ось равна 1. Поэтому нам необходимо фактически определить вероятность попадания случайной величины Нормальный закон распределения - определение и вычисление с примерами решения в интервал Нормальный закон распределения - определение и вычисление с примерами решения а затем пересчитать количество пропорциональной вероятности.

Для расчета этой вероятности надо построить математическую модель. Экспериментальные данные говорят о том, что нормальное распределение можно принять в качестве математической модели. Эмпирическая оценка (установлена статистическими исследованиями в цеху) среднего значения Нормальный закон распределения - определение и вычисление с примерами решения

дает Нормальный закон распределения - определение и вычисление с примерами решения оценка среднего квадратического отклонения Нормальный закон распределения - определение и вычисление с примерами решения

Обозначая Нормальный закон распределения - определение и вычисление с примерами решения подставим приведенные значения в (6.3):
Нормальный закон распределения - определение и вычисление с примерами решения

Тогда количество транзисторов Нормальный закон распределения - определение и вычисление с примерами решения попавших в интервал [1,8; 2,0] пФ, можно найти так: Нормальный закон распределения - определение и вычисление с примерами решения Таким образом можно планировать и рассчитывать количество транзисторов, попадающих в ту или иную группу.

Нормальное распределение и его свойства

Если выйти на улицу любого города и случайным образом выбранных прохожих спросить о том, какой у них рост, вес, возраст, доход, и т.п., а потом построить график любой из этих величин, например, роста… Но не будем спешить, сначала посмотрим, как можно построить такой график.

Сначала, мы просто запишем результаты своего исследования. Потом, мы отсортируем всех людей по группам, так чтобы каждый попал в свой диапазон роста, например, «от 180 до 181 включительно».

После этого мы должны посчитать количество людей в каждой подгруппе-диапазоне, это будет частота попадания роста жителей города в данный диапазон. Обычно эту часть удобно оформить в виде таблички. Если затем эти частоты построить по оси у, а диапазоны отложить по оси х, можно получить так называемую гистограмму, упорядоченный набор столбиков, ширина которых равна, в данном случае, одному сантиметру, а длина будет равна той частоте, которая соответствует каждому диапазону роста. Если

Вам попалось достаточно много жителей, то Ваша схема будет выглядеть примерно так:

Нормальный закон распределения - определение и вычисление с примерами решения

Дальше можно уточнить задачу. Каждый диапазон разбить на десять, жителей рассортировать по росту с точностью до миллиметра. Диаграмма станет глаже, но уменьшится по высоте, «оплывет» вниз, т.к. в каждом маленьком диапазоне количество жителей уменьшается. Чтобы избежать этого, просто увеличим масштаб по вертикальной оси в 10 раз. Если гипотетически повторить эту процедуру несколько раз, будет вырисовываться та знаменитая колоколообразная фигура, которая характерна для нормального (или Гауссова) распределения. В результате, относительная частота встречаемости каждого конкретного диапазона роста может быть посчитана как отношение площади «ломтика» кривой, приходящегося на этот диапазон к площади подо всей кривой. Стандартизированные кривые нормального распределения, значения функций которых приводятся в таблицах книг по статистике, всегда имеют суммарную площадь под кривой равную единице. Это связано с тем, что, как Вы помните из курса теории вероятности, вероятность достоверного события всегда равна 100% (или единице), а для любого человека иметь хоть какое-то значение роста — достоверное событие. А вот вероятность того, что рост произвольного человека попадет в определенный выбранный нами диапазон, будет зависеть от трех факторов.

Во-первых, от величины такого диапазона — чем точнее наши требования, тем меньше вероятности, что нам повезет.

Во-вторых, от того, насколько «популярен» выбранный нами рост. Напомним, что мода — самое часто встречающееся значение роста. Кстати для нормального распределения мода, медиана и среднее значение совпадают. Кривая нормального распределения симметрична относительно среднего значения.

И, в-третьих, вероятность попадания роста в определенный диапазон зависит от характеристики рассеивания случайной величины. Отчасти это связано с единицами измерения (представьте, что мы бы измеряли людей в дюймах, а не в миллиметрах, но сами люди и их рост были бы теми же). Но дело не только в этом. Просто некоторые процессы кучнее группируются возле среднего значения, в то время как другие более разбросаны.

Например, рост собак и рост домашних кошек имеют разный разброс значений, их кривые нормального распределения будут выглядеть по-разному (напомним еще раз, что площадь под обеими кривыми будет единичной).

Так, кривая для роста кошек будет более узкой и высокой, а для роста собак кривая будет ниже и шире. Для характеристики разброса конечного ряда данных в прошлом разделе мы использовали величину среднего квадратического отклонения. Аналогичная величина используется для характеристики кривой нормального распределения. Она обозначается буквой s и называется в этом случае стандартным отклонением. Это очень важная величина для кривой нормального распределения. Кривая нормального распределения полностью задана, если известно среднее значение Нормальный закон распределения - определение и вычисление с примерами решения и отклонение s. Кроме того, любой житель города с вероятностью 68% попадет в диапазон роста Нормальный закон распределения - определение и вычисление с примерами решения с вероятностью 95% — в диапазон Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения и с вероятностью 99,7% — в диапазон Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения

Для вычисления других значений вероятности, которые могут Вам понадобиться, можно воспользоваться приведенной таблицей:

Таблица вероятности попадания случайной величины в отмеченный (заштрихованный) диапазон

Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения

Нормальный закон распределения случайных величин, который иногда называют законом Гаусса или законом ошибок, занимает особое положение в теории вероятностей, так как 95 % изученных случайных величин подчиняются этому закону. Природа этих случайных величин такова, что их значение в проводимом эксперименте связано с проявлением огромного числа взаимно независимых случайных факторов, действие каждого из которых составляет малую долю их совокупного действия. Например, длина детали, изготавливаемой на станке с программным управлением, зависит от случайных колебаний резца в момент отрезания, от веса и толщины детали, ее формы и температуры, а также от других случайных факторов. По нормальному закону распределения изменяются рост и вес мужчин и женщин, дальность выстрела из орудия, ошибки различных измерений и другие случайные величины.

Определение: Случайная величина X называется нормальной, если она подчиняется нормальному закону распределения, т.е. ее плотность распределения задается формулойНормальный закон распределения - определение и вычисление с примерами решения — средне-квадратичное отклонение, a m = М[Х] — математическое ожидание.

Приведенная дифференциальная функция распределения удовлетворяет всем свойствам плотности вероятности, проверим, например, свойство 4.:

Нормальный закон распределения - определение и вычисление с примерами решения

Выясним геометрический смысл параметров Нормальный закон распределения - определение и вычисление с примерами решения Зафиксируем параметр Нормальный закон распределения - определение и вычисление с примерами решения и будем изменять параметр m. Построим графики соответствующих кривых (Рис. 8). Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 8. Изменение графика плотности вероятности в зависимости от изменения математического ожидания при фиксированном значении средне-квадратичного отклонения. Из рисунка видно, кривая Нормальный закон распределения - определение и вычисление с примерами решения получается путем смещения кривой Нормальный закон распределения - определение и вычисление с примерами решения вдоль оси абсцисс на величину m, поэтому параметр m определяет центр тяжести данного распределения. Кроме того, из рисунка видно, что функция Нормальный закон распределения - определение и вычисление с примерами решения достигает своего максимального значения в точке Нормальный закон распределения - определение и вычисление с примерами решения Из этой формулы видно, что при уменьшении параметра Нормальный закон распределения - определение и вычисление с примерами решения значение максимума возрастает. Так как площадь под кривой плотности распределения всегда равна 1, то с уменьшением параметра Нормальный закон распределения - определение и вычисление с примерами решения кривая вытягивается вдоль оси ординат, а с увеличением параметра Нормальный закон распределения - определение и вычисление с примерами решения кривая прижимается к оси абсцисс. Построим график нормальной плотности распределения при m = 0 и разных значениях параметра Нормальный закон распределения - определение и вычисление с примерами решения (Рис. 9): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 9. Изменение графика плотности вероятности в зависимости от изменения средне-квадратичного отклонения при фиксированном значении математического ожидания.

Интегральная функция нормального распределения имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения

График функции распределения имеет вид (Рис. 10): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 10. Графика интегральной функции распределения нормальной случайной величины.

Вероятность попадания нормальной случайной величины в заданный интервал

Пусть требуется определить вероятность того, что нормальная случайная величина попадает в интервал Нормальный закон распределения - определение и вычисление с примерами решения Согласно определениюНормальный закон распределения - определение и вычисление с примерами решения пересчитаем пределы интегрирования Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения Следовательно,Нормальный закон распределения - определение и вычисление с примерами решения

Рассмотрим основные свойства функции Лапласа Ф(х):

  1. Ф(0) = 0 — график функции Лапласа проходит через начало координат.
  2. Ф (-х) = — Ф(х) — функция Лапласа является нечетной функцией, поэтому
  3. таблицы для функции Лапласа приведены только для неотрицательных значений аргумента.
  4. Нормальный закон распределения - определение и вычисление с примерами решения — график функции Лапласа имеет горизонтальные асимптотыНормальный закон распределения - определение и вычисление с примерами решения

Следовательно, график функции Лапласа имеет вид (Рис. 11): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 11. График функции Лапласа.

Пример №1

Закон распределения нормальной случайной величины X имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения Определить вероятность попадания случайной величины X в интервал (-1;8).

Решение:

Согласно условиям задачи Нормальный закон распределения - определение и вычисление с примерами решения Поэтому искомая вероятность равна: Нормальный закон распределения - определение и вычисление с примерами решения 0,4772 + 0,3413 = 0,8185.

Вычисление вероятности заданного отклонения

Вычисление вероятности заданного отклонения. Правило Нормальный закон распределения - определение и вычисление с примерами решения.

Если интервал, в который попадает нормальная случайная величина X, симметричен относительно математического ожидания Нормальный закон распределения - определение и вычисление с примерами решения то, используя свойство нечетности функции Лапласа, получим

Нормальный закон распределения - определение и вычисление с примерами решения

Данная формула показывает, что отклонение случайной величины Х от ее математического ожидания на заданную величину l равна удвоенному значению функции Лапласа от отношения / к среднему квадратичному отклонению. Если положить Нормальный закон распределения - определение и вычисление с примерами решенияслучаях нормальная случайная величина X отличается от своего математического ожидания на величину равную среднему квадратичному отклонению. Если Нормальный закон распределения - определение и вычисление с примерами решения то вероятность отклонения равна Нормальный закон распределения - определение и вычисление с примерами решения Наконец, в случае Нормальный закон распределения - определение и вычисление с примерами решения то вероятность отклонения равна Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения Из последнего равенства видно, что только приблизительно в 0.3 % случаях отклонение нормальной случайной величины X от своего математического ожидания превышает Нормальный закон распределения - определение и вычисление с примерами решения Это свойство нормальной случайной величины X называется правилом “трех сигм”. На практике это правило применяется следующим образом: если отклонение случайной величины X от своего математического ожидания не превышает Нормальный закон распределения - определение и вычисление с примерами решения то эта случайная величина распределена по нормальному закону.

Показательный закон распределения

Определение: Закон распределения, определяемый фу нкцией распределения:

Нормальный закон распределения - определение и вычисление с примерами решения называется экспоненциальным или показательным.

График экспоненциального закона распределения имеет вид (Рис. 12): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 12. График функции распределения для случая экспоненциального закона.

Дифференциальная функция распределения (плотность вероятности) имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения а ее график показан на (Рис. 13): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 13. График плотности вероятности для случая экспоненциального закона.

Пример №2

Случайная величина X подчиняется дифференциальной функции распределения Нормальный закон распределения - определение и вычисление с примерами решения Найти вероятность того, что случайная величина X попадет в интервал (2; 4), математическое ожидание M[Х], дисперсию D[X] и среднее квадратичное отклонение Нормальный закон распределения - определение и вычисление с примерами решения Проверить выполнение правила “трех сигм” для показательного распределения.

Решение:

Интегральная функция распределения Нормальный закон распределения - определение и вычисление с примерами решения следовательно, вероятность того, что случайная величина X попадет в интервал (2; 4), равна: Нормальный закон распределения - определение и вычисление с примерами решения Математическое ожидание Нормальный закон распределения - определение и вычисление с примерами решения Вычислим значение величины МНормальный закон распределения - определение и вычисление с примерами решения тогда дисперсия случайной величины X равна Нормальный закон распределения - определение и вычисление с примерами решения а средне-квадратичное

отклонение Нормальный закон распределения - определение и вычисление с примерами решения Для проверки правила “трех сигм” вычислим вероятность заданного отклонения:

Нормальный закон распределения - определение и вычисление с примерами решения

  • Основные законы распределения вероятностей
  • Асимптотика схемы независимых испытаний
  • Функции случайных величин
  • Центральная предельная теорема
  • Повторные независимые испытания
  • Простейший (пуассоновский) поток событий
  • Случайные величины
  • Числовые характеристики случайных величин

Систематические
погрешности — постоянные или закономерно
изменяющиеся погрешности.

Их
основной отличительный признак: они
могут быть предсказаны или устранены
введением поправок.

Постоянные
погрешности определяют при поверке по
образцовым мерам или сигналам.

Закономерно
изменяющиеся погрешности – большинство
дополнительных погрешностей. Дополнительные
погрешности устраняют схемной коррекцией.

Прогрессирующие
погрешности – непредсказуемые погрешности
медленно изменяющиеся во времени. Они
вызываются старением деталей и их можно
скорректировать только на данный момент
времени, т.е. они требуют непрерывного
повторения коррекции.

Случайные погрешности
– вызываются несколькими причинами
неподдающимися анализу. Их обнаруживают
при повторных измерениях в виде разброса
результатов.

Случайные погрешности
проявляются при повторных измерениях
одной и той же величины в виде разброса
показаний. Оценку СП проводят с помощью
теории вероятности.

Полным описанием
случайной величины является ее закон
распределения. Он может быть задан в
интегральной или дифференциальной
форме.

Часто СП подчиняются
закону Гауса (нормальный закон
распределения).



плотность распределения вероятности
СП.

средне
квадратичное отклонение.

При увеличении
кривая становится более плоской.

дифференциальный
закон

распределения

интегральный
закон

распределения

Основные
характеристики законов распределения
– математическое ожидание m
и дисперсия D.

Математическое
ожидание ряда измерений будет истинное
значение измеряемой величины.
Систематическая погрешность смещает
математическое ожидание.

Дисперсия
ряда измерений характеризует степень
рассеяния результатов отдельных
измерений вокруг математического
ожидания. Чем меньше дисперсия, тем
точнее измерения. Т.к. D
измеряется
в квадрате измеряемой величины, то
применяют:
.

m
и D
можно определить, если произведено
большое число измерений ().

Если
число измерений n<20,
то определяют оценку m
и D.

Допустим
провели ряд измерений и получили a1,
a2,
a3,
…, an,
где
ai
– результаты отдельных измерений, n
– число измерений.

,


средне арифметическое.

При

Рассчитаем
остаточные погрешности
:

Оценка
дисперсии ряда наблюдений подсчитывается:

Если
,
тои

— если отсутствует
систематическая погрешность.

Если
,
то из ряда измерений вычитают
систематическую погрешность и ряд
называетсяисправным.

Из
теории вероятности известно, что
— дисперсия средне арифметического вn-раз
меньше дисперсии ряда измерений или

средне квадратичное отклонение вменьше средне квадратичного отклонения
ряда измерений.

Погрешность
дискретности подчиняется равномерному
закону распределения.

В качестве
дифференциальных законов распределения
берут кривые, площадь под которыми
равна 1. Она отображает вероятность
всех возможных событий.

интегральный
закон

распределения

дифференциальный
закон

распределения

Если
известен закон распределения, то можно
определить вероятность появления
погрешности 
не выходящей за пределы некоторой
границы. Этот интервал называется
доверительным, а его вероятность
доверительной.

В
метрологии доверительная вероятность:
Рд=0.9;
0.95

В
теории надежности: Рд=0.8.


Рд числено = площади ограничения кривойосью абсцисс и вертикальными линиями
соответствующих доверительному
интервалу. Результат измерения может
быть представлен в виде:

Для
нормального закона распределения можно
записать:

,
где

функция Лапласса.

Ф(0)=0,
Ф(-х)=-Ф(х) — свойства функции Лапласса.

Часто
нужно найти вероятность того, что СП по
абсолютному величине меньше заданного
положительного числа :

Найдем
вероятность того, что

Правило
трех
.

Считают
невозможным выход случайной ошибки за
пределы трех ,
т.е. в 997 из 1000 случаев погрешность не
превосходит трех 

Если
погрешность больше трех ,
то результат этого измерения называется
промахом, и его отбрасывают.

Если
случайная ошибка распределена по
нормальному закону и n<20,
то истинное значение измеряемой величины
находят с использованием закона
Стьюдента.

.

Коэффициент
t
берут из таблицы распределения Стьюдента.

В
результат измерения входит не исключаемая
систематическая погрешность 
и случайная погрешность.

Если
,
то пренебрегают
и считают,
что погрешность только случайная.

Если
,
то пренебрегают СП, т.е.
остается
только систематическая погрешность.

Если
,
то границы погрешности находят по
формуле из справочника.

7

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

Результат любого измерения не определён однозначно и имеет случайную составляющую.
Поэтому адекватным языком для описания погрешностей является язык вероятностей.
Тот факт, что значение некоторой величины «случайно», не означает, что
она может принимать совершенно произвольные значения. Ясно, что частоты, с которыми
возникает те или иные значения, различны. Вероятностные законы, которым
подчиняются случайные величины, называют распределениями.

2.1 Случайная величина

Случайной будем называть величину, значение которой не может быть достоверно определено экспериментатором. Чаще всего подразумевается, что случайная величина будет изменяться при многократном повторении одного и того же эксперимента. При интерпретации результатов измерений в физических экспериментах, обычно случайными также считаются величины, значение которых является фиксированным, но не известно экспериментатору. Например смещение нуля шкалы прибора. Для формализации работы со случайными величинами используют понятие вероятности. Численное значение вероятности того, что какая-то величина примет то или иное значение определяется либо как относительная частота наблюдения того или иного значения при повторении опыта большое количество раз, либо как оценка на основе данных других экспериментов.

Замечание. 
Хотя понятия вероятности и случайной величины являются основополагающими, в литературе нет единства в их определении. Обсуждение формальных тонкостей или построение строгой теории лежит за пределами данного пособия. Поэтому на начальном этапе лучше использовать «интуитивное» понимание этих сущностей. Заинтересованным читателям рекомендуем обратиться к специальной литературе: [5].

Рассмотрим случайную физическую величину x, которая при измерениях может
принимать непрерывный набор значений. Пусть
P[x0,x0+δ⁢x] — вероятность того, что результат окажется вблизи
некоторой точки x0 в пределах интервала δ⁢x: x∈[x0,x0+δ⁢x].
Устремим интервал
δ⁢x к нулю. Нетрудно понять, что вероятность попасть в этот интервал
также будет стремиться к нулю. Однако отношение
w⁢(x0)=P[x0,x0+δ⁢x]δ⁢x будет оставаться конечным.
Функцию w⁢(x) называют плотностью распределения вероятности или кратко
распределением непрерывной случайной величины x.

Замечание. В математической литературе распределением часто называют не функцию
w⁢(x), а её интеграл W⁢(x)=∫w⁢(x)⁢𝑑x. Такую функцию в физике принято
называть интегральным или кумулятивным распределением. В англоязычной литературе
для этих функций принято использовать сокращения:
pdf (probability distribution function) и
cdf (cumulative distribution function)
соответственно.

Гистограммы.

Проиллюстрируем наглядно понятие плотности распределения. Результат
большого числа измерений случайной величины удобно представить с помощью
специального типа графика — гистограммы.
Для этого область значений x, размещённую на оси абсцисс, разобьём на
равные малые интервалы — «корзины» или «бины» (англ. bins)
некоторого размера h. По оси ординат будем откладывать долю измерений w,
результаты которых попадают в соответствующую корзину. А именно,
пусть k — номер корзины; nk — число измерений, попавших
в диапазон x∈[k⁢h,(k+1)⁢h]. Тогда на графике изобразим «столбик»
шириной h и высотой wk=nk/n.
В результате получим картину, подобную изображённой на рис. 2.1.

Рис. 2.1: Пример гистограммы для нормального распределения (x¯=10,
σ=1,0, h=0,1, n=104)

Высоты построенных столбиков будут приближённо соответствовать значению
плотности распределения w⁢(x) вблизи соответствующей точки x.
Если устремить число измерений к бесконечности (n→∞), а ширину корзин
к нулю (h→0), то огибающая гистограммы будет стремиться к некоторой
непрерывной функции w⁢(x).

Самые высокие столбики гистограммы будут группироваться вблизи максимума
функции w⁢(x) — это наиболее вероятное значение случайной величины.
Если отклонения в положительную и отрицательную стороны равновероятны,
то гистограмма будет симметрична — в таком случае среднее значение ⟨x⟩
также будет лежать вблизи этого максимума. Ширина гистограммы будет характеризовать разброс
значений случайной величины — по порядку величины
она, как правило, близка к среднеквадратичному отклонению sx.

Свойства распределений.

Из определения функции w⁢(x) следует, что вероятность получить в результате
эксперимента величину x в диапазоне от a до b
можно найти, вычислив интеграл:

Px∈[a,b]=∫abw⁢(x)⁢𝑑x. (2.1)

Согласно определению вероятности, сумма вероятностей для всех возможных случаев
всегда равна единице. Поэтому интеграл распределения w⁢(x) по всей области
значений x (то есть суммарная площадь под графиком w⁢(x)) равен единице:

Это соотношение называют условием нормировки.

Среднее и дисперсия.

Вычислим среднее по построенной гистограмме. Если размер корзин
h достаточно мал, все измерения в пределах одной корзины можно считать примерно
одинаковыми. Тогда среднее арифметическое всех результатов можно вычислить как

Переходя к пределу, получим следующее определение среднего значения
случайной величины:

где интегрирование ведётся по всей области значений x.
В теории вероятностей x¯ также называют математическим ожиданием
распределения.
Величину

σ2=(x-x¯)2¯=∫(x-x¯)2⁢w⁢𝑑x (2.3)

называют дисперсией распределения. Значение σ есть
срекднеквадратичное отклонение в пределе n→∞. Оно имеет ту
же размерность, что и сама величина x и характеризует разброс распределения.
Именно эту величину, как правило, приводят как характеристику погрешности
измерения x.

Доверительный интервал.

Обозначим как P|Δ⁢x|<δ вероятность
того, что отклонение от среднего Δ⁢x=x-x¯ составит величину,
не превосходящую по модулю значение δ:

P|Δ⁢x|<δ=∫x¯-δx¯+δw⁢(x)⁢𝑑x. (2.4)

Эту величину называют доверительной вероятностью для
доверительного интервала |x-x¯|≤δ.

2.2 Нормальное распределение

Одним из наиболее примечательных результатов теории вероятностей является
так называемая центральная предельная теорема. Она утверждает,
что сумма большого количества независимых случайных слагаемых, каждое
из которых вносит в эту сумму относительно малый вклад, подчиняется
универсальному закону, не зависимо от того, каким вероятностным законам
подчиняются её составляющие, — так называемому нормальному
распределению
(или распределению Гаусса).

Доказательство теоремы довольно громоздко и мы его не приводим (его можно найти
в любом учебнике по теории вероятностей). Остановимся
кратко на том, что такое нормальное распределение и его основных свойствах.

Плотность нормального распределения выражается следующей формулой:

w𝒩⁢(x)=12⁢π⁢σ⁢e-(x-x¯)22⁢σ2. (2.5)

Здесь x¯ и σ
— параметры нормального распределения: x¯ равно
среднему значению x, a σ —
среднеквадратичному отклонению, вычисленным в пределе n→∞.

Как видно из рис. 2.1, распределение представляет собой
симметричный
«колокол», положение вершины которого
соответствует x¯ (ввиду симметрии оно же
совпадает с наиболее вероятным значением — максимумом
функции w𝒩⁢(x)).

При значительном отклонении x от среднего величина
w𝒩⁢(x)
очень быстро убывает. Это означает, что вероятность встретить отклонения,
существенно большие, чем σ, оказывается пренебрежимо
мала
. Ширина «колокола» по порядку величины
равна σ — она характеризует «разброс»
экспериментальных данных относительно среднего значения.

Замечание. Точки x=x¯±σ являются точками
перегиба графика w⁢(x) (в них вторая производная по x
обращается в нуль, w′′=0), а их положение по высоте составляет
w⁢(x¯±σ)/w⁢(x¯)=e-1/2≈0,61
от высоты вершины.

Универсальный характер центральной предельной теоремы позволяет широко
применять на практике нормальное (гауссово) распределение для обработки
результатов измерений, поскольку часто случайные погрешности складываются из
множества случайных независимых факторов. Заметим, что на практике
для приближённой оценки параметров нормального распределения
случайной величины используются выборочные значения среднего
и дисперсии: x¯≈⟨x⟩, sx≈σx.

x-x0σ2=2w⁢(x)σ1=1

Рис. 2.2: Плотность нормального распределения

Доверительные вероятности.

Вычислим некоторые доверительные вероятности (2.4) для нормально
распределённых случайных величин.

Замечание. Значение интеграла вида ∫e-x2/2⁢𝑑x
(его называют интегралом ошибок) в элементарных функциях не выражается,
но легко находится численно.

Вероятность того, что результат отдельного измерения x окажется
в пределах x¯±σ оказывается равна

P|Δ⁢x|<σ=∫x¯-σx¯+σw𝒩⁢𝑑x≈0,68.

Вероятность отклонения в пределах x¯±2⁢σ:

а в пределах x¯±3⁢σ:

Иными словами, при большом числе измерений нормально распределённой
величины можно ожидать, что лишь треть измерений выпадут за пределы интервала
[x¯-σ,x¯+σ]. При этом около 5%
измерений выпадут за пределы [x¯-2⁢σ;x¯+2⁢σ],
и лишь 0,27% окажутся за пределами
[x¯-3⁢σ;x¯+3⁢σ].

Пример. В сообщениях об открытии бозона Хиггса на Большом адронном коллайдере
говорилось о том, что исследователи ждали подтверждение результатов
с точностью «5 сигма». Используя нормальное распределение (2.5)
нетрудно посчитать, что они использовали доверительную вероятность
P≈1-5,7⋅10-7=0,99999943. Такую точность можно назвать фантастической.

Полученные значения доверительных вероятностей используются при
стандартной записи результатов измерений. В физических измерениях
(в частности, в учебной лаборатории), как правило, используется P=0,68,
то есть, запись

означает, что измеренное значение лежит в диапазоне (доверительном
интервале) x∈[x¯-δ⁢x;x¯+δ⁢x] с
вероятностью 68%. Таким образом погрешность ±δ⁢x считается
равной одному среднеквадратичному отклонению: δ⁢x=σ.
В технических измерениях чаще используется P=0,95, то есть под
абсолютной погрешностью имеется в виду удвоенное среднеквадратичное
отклонение, δ⁢x=2⁢σ. Во избежание разночтений доверительную
вероятность следует указывать отдельно.

Замечание. Хотя нормальный закон распределения встречается на практике довольно
часто, стоит помнить, что он реализуется далеко не всегда.
Полученные выше соотношения для вероятностей попадания значений в
доверительные интервалы можно использовать в качестве простейшего
признака нормальности распределения: в частности, если количество попадающих
в интервал ±σ результатов существенно отличается от 2/3 — это повод
для более детального исследования закона распределения ошибок.

Сравнение результатов измерений.

Теперь мы можем дать количественный критерий для сравнения двух измеренных
величин или двух результатов измерения одной и той же величины.

Пусть x1 и x2 (x1≠x2) измерены с
погрешностями σ1 и σ2 соответственно.
Ясно, что если различие результатов |x2-x1| невелико,
его можно объяснить просто случайными отклонениями.
Если же теория предсказывает, что вероятность обнаружить такое отклонение
слишком мала, различие результатов следует признать значимым.
Предварительно необходимо договориться о соответствующем граничном значении
вероятности. Универсального значения здесь быть не может,
поэтому приходится полагаться на субъективный выбор исследователя. Часто
в качестве «разумной» границы выбирают вероятность 5%,
что, как видно из изложенного выше, для нормального распределения
соответствует отклонению более, чем на 2⁢σ.

Допустим, одна из величин известна с существенно большей точностью:
σ2≪σ1 (например, x1 — результат, полученный
студентом в лаборатории, x2 — справочное значение).
Поскольку σ2 мало, x2 можно принять за «истинное»:
x2≈x¯. Предполагая, что погрешность измерения
x1 подчиняется нормальному закону с и дисперсией σ12,
можно утверждать, что
различие считают будет значимы, если

Пусть погрешности измерений сравнимы по порядку величины:
σ1∼σ2. В теории вероятностей показывается, что
линейная комбинация нормально распределённых величин также имеет нормальное
распределение с дисперсией σ2=σ12+σ22
(см. также правила сложения погрешностей (2.7)). Тогда
для проверки гипотезы о том, что x1 и x2 являются измерениями
одной и той же величины, нужно вычислить, является ли значимым отклонение
|x1-x2| от нуля при σ=σ12+σ22.


Пример. Два студента получили следующие значения для теплоты испарения
некоторой жидкости: x1=40,3±0,2 кДж/моль и
x2=41,0±0,3 кДж/моль, где погрешность соответствует
одному стандартному отклонению. Можно ли утверждать, что они исследовали
одну и ту же жидкость?

Имеем наблюдаемую разность |x1-x2|=0,7 кДж/моль,
среднеквадратичное отклонение для разности
σ=0,22+0,32=0,36 кДж/моль.
Их отношение |x2-x1|σ≈2. Из
свойств нормального распределения находим вероятность того, что измерялась
одна и та же величина, а различия в ответах возникли из-за случайных
ошибок: P≈5%. Ответ на вопрос, «достаточно»
ли мала или велика эта вероятность, остаётся на усмотрение исследователя.

Замечание. Изложенные здесь соображения применимы, только если x¯ и
его стандартное отклонение σ получены на основании достаточно
большой выборки n≫1 (или заданы точно). При небольшом числе измерений
(n≲10) выборочные средние ⟨x⟩ и среднеквадратичное отклонение
sx сами имеют довольно большую ошибку, а
их распределение будет описываться не нормальным законом, а так
называемым t-распределением Стъюдента. В частности, в зависимости от
значения n интервал ⟨x⟩±sx будет соответствовать несколько
меньшей доверительной вероятности, чем P=0,68. Особенно резко различия
проявляются при высоких уровнях доверительных вероятностей P→1.

2.3 Независимые величины

Величины x и y называют независимыми если результат измерения одной
из них никак не влияет на результат измерения другой. Для таких величин вероятность того, что x окажется в некоторой области X, и одновременно y — в области Y,
равна произведению соответствующих вероятностей:

Обозначим отклонения величин от их средних как Δ⁢x=x-x¯ и
Δ⁢y=y-y¯.
Средние значения этих отклонений равны, очевидно, нулю: Δ⁢x¯=x¯-x¯=0,
Δ⁢y¯=0. Из независимости величин x и y следует,
что среднее значение от произведения Δ⁢x⋅Δ⁢y¯
равно произведению средних Δ⁢x¯⋅Δ⁢y¯
и, следовательно, равно нулю:

Δ⁢x⋅Δ⁢y¯=Δ⁢x¯⋅Δ⁢y¯=0. (2.6)

Пусть измеряемая величина z=x+y складывается из двух независимых
случайных слагаемых x и y, для которых известны средние
x¯ и y¯, и их среднеквадратичные погрешности
σx и σy. Непосредственно из определения (1.1)
следует, что среднее суммы равно сумме средних:

Найдём дисперсию σz2. В силу независимости имеем

Δ⁢z2¯=Δ⁢x2¯+Δ⁢y2¯+2⁢Δ⁢x⋅Δ⁢y¯≈Δ⁢x2¯+Δ⁢y2¯,

то есть:

Таким образом, при сложении независимых величин их погрешности
складываются среднеквадратичным образом.

Подчеркнём, что для справедливости соотношения (2.7)
величины x и y не обязаны быть нормально распределёнными —
достаточно существования конечных значений их дисперсий. Однако можно
показать, что если x и y распределены нормально, нормальным
будет и распределение их суммы
.

Замечание. Требование независимости
слагаемых является принципиальным. Например, положим y=x. Тогда
z=2⁢x. Здесь y и x, очевидно, зависят друг от друга. Используя
(2.7), находим σ2⁢x=2⁢σx,
что, конечно, неверно — непосредственно из определения
следует, что σ2⁢x=2⁢σx.

Отдельно стоит обсудить математическую структуру формулы (2.7).
Если одна из погрешностей много больше другой, например,
σx≫σy,
то меньшей погрешностью можно пренебречь, σx+y≈σx.
С другой стороны, если два источника погрешностей имеют один порядок
σx∼σy, то и σx+y∼σx∼σy.

Эти обстоятельства важны при планирования эксперимента: как правило,
величина, измеренная наименее точно, вносит наибольший вклад в погрешность
конечного результата. При этом, пока не устранены наиболее существенные
ошибки, бессмысленно гнаться за повышением точности измерения остальных
величин.

Пример. Пусть σy=σx/3,
тогда σz=σx⁢1+19≈1,05⁢σx,
то есть при различии двух погрешностей более, чем в 3 раза, поправка
к погрешности составляет менее 5%, и уже нет особого смысла в учёте
меньшей погрешности: σz≈σx. Это утверждение
касается сложения любых независимых источников погрешностей в эксперименте.

2.4 Погрешность среднего

Выборочное среднее арифметическое значение ⟨x⟩, найденное
по результатам n измерений, само является случайной величиной.
Действительно, если поставить серию одинаковых опытов по n измерений,
то в каждом опыте получится своё среднее значение, отличающееся от
предельного среднего x¯.

Вычислим среднеквадратичную погрешность среднего арифметического
σ⟨x⟩.
Рассмотрим вспомогательную сумму n слагаемых

Если {xi} есть набор независимых измерений
одной и той же физической величины, то мы можем, применяя результат
(2.7) предыдущего параграфа, записать

σZ=σx12+σx22+…+σxn2=n⁢σx,

поскольку под корнем находится n одинаковых слагаемых. Отсюда с
учётом ⟨x⟩=Z/n получаем

Таким образом, погрешность среднего значения x по результатам
n независимых измерений оказывается в n раз меньше погрешности
отдельного измерения
. Это один из важнейших результатов, позволяющий
уменьшать случайные погрешности эксперимента за счёт многократного
повторения измерений.

Подчеркнём отличия между σx и σ⟨x⟩:

величина σx — погрешность отдельного
измерения
— является характеристикой разброса значений
в совокупности измерений {xi}, i=1..n. При
нормальном законе распределения примерно 68% измерений попадают в
интервал ⟨x⟩±σx;

величина σ⟨x⟩ — погрешность
среднего
— характеризует точность, с которой определено
среднее значение измеряемой физической величины ⟨x⟩ относительно
предельного («истинного») среднего x¯;
при этом с доверительной вероятностью P=68% искомая величина x¯
лежит в интервале
⟨x⟩-σ⟨x⟩<x¯<⟨x⟩+σ⟨x⟩.

2.5 Результирующая погрешность опыта

Пусть для некоторого результата измерения известна оценка его максимальной
систематической погрешности Δсист и случайная
среднеквадратичная
погрешность σслуч. Какова «полная»
погрешность измерения?

Предположим для простоты, что измеряемая величина в принципе
может быть определена сколь угодно точно, так что можно говорить о
некотором её «истинном» значении xист
(иными словами, погрешность результата связана в основном именно с
процессом измерения). Назовём полной погрешностью измерения
среднеквадратичное значения отклонения от результата измерения от
«истинного»:

Отклонение x-xист можно представить как сумму случайного
отклонения от среднего δ⁢xслуч=x-x¯
и постоянной (но, вообще говоря, неизвестной) систематической составляющей
δ⁢xсист=x¯-xист=const:

Причём случайную составляющую можно считать независимой от систематической.
В таком случае из (2.7) находим:

σполн2=⟨δ⁢xсист2⟩+⟨δ⁢xслуч2⟩≤Δсист2+σслуч2. (2.9)

Таким образом, для получения максимального значения полной
погрешности некоторого измерения нужно квадратично сложить максимальную
систематическую и случайную погрешности.

Если измерения проводятся многократно, то согласно (2.8)
случайная составляющая погрешности может быть уменьшена, а систематическая
составляющая при этом остаётся неизменной:

Отсюда следует важное практическое правило
(см. также обсуждение в п. 2.3): если случайная погрешность измерений
в 2–3 раза меньше предполагаемой систематической, то
нет смысла проводить многократные измерения в попытке уменьшить погрешность
всего эксперимента. В такой ситуации измерения достаточно повторить
2–3 раза — чтобы убедиться в повторяемости результата, исключить промахи
и проверить, что случайная ошибка действительно мала.
В противном случае повторение измерений может иметь смысл до
тех пор, пока погрешность среднего
σ⟨x⟩=σxn
не станет меньше систематической.


Замечание. Поскольку конкретная
величина систематической погрешности, как правило, не известна, её
можно в некотором смысле рассматривать наравне со случайной —
предположить, что её величина была определена по некоторому случайному
закону перед началом измерений (например, при изготовлении линейки
на заводе произошло некоторое случайное искажение шкалы). При такой
трактовке формулу (2.9) можно рассматривать просто
как частный случай формулы сложения погрешностей независимых величин
(2.7).

Подчеркнем, что вероятностный закон, которому подчиняется
систематическая ошибка, зачастую неизвестен. Поэтому неизвестно и
распределение итогового результата. Из этого, в частности, следует,
что мы не можем приписать интервалу x±Δсист какую-либо
определённую доверительную вероятность — она равна 0,68
только если систематическая ошибка имеет нормальное распределение.
Можно, конечно, предположить,
— и так часто делают — что, к примеру, ошибки
при изготовлении линеек на заводе имеют гауссов характер. Также часто
предполагают, что систематическая ошибка имеет равномерное
распределение (то есть «истинное» значение может с равной вероятностью
принять любое значение в пределах интервала ±Δсист).
Строго говоря, для этих предположений нет достаточных оснований.


Пример. В результате измерения диаметра проволоки микрометрическим винтом,
имеющим цену деления h=0,01 мм, получен следующий набор из n=8 значений:

Вычисляем среднее значение: ⟨d⟩≈386,3 мкм.
Среднеквадратичное отклонение:
σd≈9,2 мкм. Случайная погрешность среднего согласно
(2.8):
σ⟨d⟩=σd8≈3,2
мкм. Все результаты лежат в пределах ±2⁢σd, поэтому нет
причин сомневаться в нормальности распределения. Максимальную погрешность
микрометра оценим как половину цены деления, Δ=h2=5 мкм.
Результирующая полная погрешность
σ≤Δ2+σd28≈6,0 мкм.
Видно, что σслуч≈Δсист и проводить дополнительные измерения
особого смысла нет. Окончательно результат измерений может быть представлен
в виде (см. также правила округления
результатов измерений в п. 4.3.2)



d=386±6⁢мкм,εd=1,5%.


Заметим, что поскольку случайная погрешность и погрешность
прибора здесь имеют один порядок величины, наблюдаемый случайный разброс
данных может быть связан как с неоднородностью сечения проволоки,
так и с дефектами микрометра (например, с неровностями зажимов, люфтом
винта, сухим трением, деформацией проволоки под действием микрометра
и т. п.). Для ответа на вопрос, что именно вызвало разброс, требуются
дополнительные исследования, желательно с использованием более точных
приборов.


Пример. Измерение скорости
полёта пули было осуществлено с погрешностью δ⁢v=±1 м/c.
Результаты измерений для n=6 выстрелов представлены в таблице:

Усреднённый результат ⟨v⟩=162,0⁢м/с,
среднеквадратичное отклонение σv=13,8⁢м/c, случайная
ошибка для средней скорости
σv¯=σv/6=5,6⁢м/с.
Поскольку разброс экспериментальных данных существенно превышает погрешность
каждого измерения, σv≫δ⁢v, он почти наверняка связан
с реальным различием скоростей пули в разных выстрелах, а не с ошибками
измерений. В качестве результата эксперимента представляют интерес
как среднее значение скоростей ⟨v⟩=162±6⁢м/с
(ε≈4%), так и значение σv≈14⁢м/с,
характеризующее разброс значений скоростей от выстрела к выстрелу.
Малая инструментальная погрешность в принципе позволяет более точно
измерить среднее и дисперсию, и исследовать закон распределения выстрелов
по скоростям более детально — для этого требуется набрать
бо́льшую статистику по выстрелам.


Пример. Измерение скорости
полёта пули было осуществлено с погрешностью δ⁢v=10 м/c. Результаты
измерений для n=6 выстрелов представлены в таблице:

Усреднённый результат ⟨v⟩=163,3⁢м/с,
σv=12,1⁢м/c, σ⟨v⟩=5⁢м/с,
σполн≈11,2⁢м/с. Инструментальная
погрешность каждого измерения превышает разброс данных, поэтому в
этом опыте затруднительно сделать вывод о различии скоростей от выстрела
к выстрелу. Результат измерений скорости пули:
⟨v⟩=163±11⁢м/с,
ε≈7%. Проводить дополнительные выстрелы при такой
большой инструментальной погрешности особого смысла нет —
лучше поработать над точностью приборов и методикой измерений.

2.6 Обработка косвенных измерений

Косвенными называют измерения, полученные в результате расчётов,
использующих результаты прямых (то есть «непосредственных»)
измерений физических величин. Сформулируем основные правила пересчёта
погрешностей при косвенных измерениях.

2.6.1 Случай одной переменной

Пусть в эксперименте измеряется величина x, а её «наилучшее»
(в некотором смысле) значение равно x⋆ и оно известно с
погрешностью σx. После чего с помощью известной функции
вычисляется величина y=f⁢(x).

В качестве «наилучшего» приближения для y используем значение функции
при «наилучшем» x:

Найдём величину погрешности σy. Обозначая отклонение измеряемой
величины как Δ⁢x=x-x⋆, и пользуясь определением производной,
при условии, что функция y⁢(x) — гладкая
вблизи x≈x⋆, запишем

где f′≡d⁢yd⁢x — производная фукнции f⁢(x), взятая в точке
x⋆. Возведём полученное в квадрат, проведём усреднение
(σy2=⟨Δ⁢y2⟩,
σx2=⟨Δ⁢x2⟩), и затем снова извлечём
корень. В результате получим


Пример. Для степенной функции
y=A⁢xn имеем σy=n⁢A⁢xn-1⁢σx, откуда



σyy=n⁢σxx,или  εy=n⁢εx,


то есть относительная погрешность степенной функции возрастает пропорционально
показателю степени n.

Пример. Для y=1/x имеем ε1/x=εx
— при обращении величины сохраняется её относительная
погрешность.

Упражнение. Найдите погрешность логарифма y=ln⁡x, если известны x
и σx.

Упражнение. Найдите погрешность показательной функции y=ax,
если известны x и σx. Коэффициент a задан точно.

2.6.2 Случай многих переменных

Пусть величина u вычисляется по измеренным значениям нескольких
различных независимых физических величин x, y, …
на основе известного закона u=f⁢(x,y,…). В качестве
наилучшего значения можно по-прежнему взять значение функции f
при наилучших значениях измеряемых параметров:

Для нахождения погрешности σu воспользуемся свойством,
известным из математического анализа, — малые приращения гладких
функции многих переменных складываются линейно, то есть справедлив
принцип суперпозиции малых приращений:

где символом fx′≡∂⁡f∂⁡x обозначена
частная производная функции f по переменной x —
то есть обычная производная f по x, взятая при условии, что
все остальные аргументы (кроме x) считаются постоянными параметрами.
Тогда пользуясь формулой для нахождения дисперсии суммы независимых
величин (2.7), получим соотношение, позволяющее вычислять
погрешности косвенных измерений для произвольной функции
u=f⁢(x,y,…):

σu2=fx′⁣2⁢σx2+fy′⁣2⁢σy2+… (2.11)

Это и есть искомая общая формула пересчёта погрешностей при косвенных
измерениях.

Отметим, что формулы (2.10) и (2.11) применимы
только если относительные отклонения всех величин малы
(εx,εy,…≪1),
а измерения проводятся вдали от особых точек функции f (производные
fx′, fy′ … не должны обращаться в бесконечность).
Также подчеркнём, что все полученные здесь формулы справедливы только
для независимых переменных x, y, …

Остановимся на некоторых важных частных случаях формулы
(2.11).


Пример. Для суммы (или разности) u=∑i=1nai⁢xi имеем



σu2=∑i=1nai2⁢σxi2.

(2.12)



Пример. Найдём погрешность степенной функции:
u=xα⋅yβ⋅…. Тогда нетрудно получить,
что



σu2u2=α2⁢σx2x2+β2⁢σy2y2+…


или через относительные погрешности



εu2=α2⁢εx2+β2⁢εy2+…

(2.13)



Пример. Вычислим погрешность произведения и частного: u=x⁢y или u=x/y.
Тогда в обоих случаях имеем



εu2=εx2+εy2,

(2.14)


то есть при умножении или делении относительные погрешности складываются
квадратично.


Пример. Рассмотрим несколько более сложный случай: нахождение угла по его тангенсу



u=arctgyx.


В таком случае, пользуясь тем, что (arctgz)′=11+z2,
где z=y/x, и используя производную сложной функции, находим
ux′=uz′⁢zx′=-yx2+y2,
uy′=uz′⁢zy′=xx2+y2, и наконец



σu2=y2⁢σx2+x2⁢σy2(x2+y2)2.


Упражнение. Найти погрешность вычисления гипотенузы z=x2+y2
прямоугольного треугольника по измеренным катетам x и y.

По итогам данного раздела можно дать следующие практические рекомендации.

  • Как правило, нет смысла увеличивать точность измерения какой-то одной
    величины, если другие величины, используемые в расчётах, остаются
    измеренными относительно грубо — всё равно итоговая погрешность
    скорее всего будет определяться самым неточным измерением. Поэтому
    все измерения имеет смысл проводить примерно с одной и той же
    относительной погрешностью
    .

  • При этом, как следует из (2.13), особое внимание
    следует уделять измерению величин, возводимых при расчётах в степени
    с большими показателями. А при сложных функциональных зависимостях
    имеет смысл детально проанализировать структуру формулы
    (2.11):
    если вклад от некоторой величины в общую погрешность мал, нет смысла
    гнаться за высокой точностью её измерения, и наоборот, точность некоторых
    измерений может оказаться критически важной.

  • Следует избегать измерения малых величин как разности двух близких
    значений (например, толщины стенки цилиндра как разности внутреннего
    и внешнего радиусов): если u=x-y, то абсолютная погрешность
    σu=σx2+σy2
    меняется мало, однако относительная погрешность
    εu=σux-y
    может оказаться неприемлемо большой, если x≈y.

30)Нормальный закон распределения случайных погрешностей. Функция Лапласа. Распределение Стьюдента.

Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

Нормальный закон распределения также называется законом Гаусса.

Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.

Нормальный закон распределения имеет плотность распределения

img ja 3GK(*)

где m и s>0 некоторые числовые параметры. В разделе «Предельные теоремы теории вероятностей.» будут обсуждены причины, в силу которых нормальный закон распределения играет важную

роль в теории вероятностей и ее приложениях.

х. Легко убедиться, что кривая, определяемая функцией распределения (*), имеет максимум в точке x=m, а точки перегиба отстоят от точки x=m на расстоянии s и при img Pjw8uPфункция (*) асимптотически приближается к нулю. График функции (*) изображен на рис. 9

img 4U3uGZimg

В зависимости от величины параметров кривая плотности вероятности имеет различный вид и поэтому правильнее было бы говорить о семействе нормальных законов распределения (на рис. 10 показана зависимость формы кривой распределения от величины s при фиксированном m).

Нормальный закон распределения относится к непрерывной случайной величине. И тесно связан с таким понятием как функция Лапласа. Она нужна для нахождения вероятности

Функцию Лапласа и данную таблицу чаще всего изучают на втором курсе университета, при изучении математики и теории вероятности, если Вам в данной теме, что-то не понятно, то Вы всегда можете задать вопрос на нашем форуме, мы будем рады вам помочь. Пользуйтесь нашим сайтом и таблицей на здоровье.

img 3JwpEL

При разных значениях t; F(–t) = –F(t) (функция нормального распределения).

Источник

32.Нормальное распределение случайных погрешностей измерений и их оценка.

Случайной погрешностью измерения называется составляющая погрешности, изменяющаяся случайным образом (по знаку и зна­чению) при повторных измерениях одной и той же физической ве­личины, проведенных с одинаковой тщательностью. Примеры распределения случайных величин

Способы нахождения значений случайной величины зависят от вида функции ее распределения. Однако на практике такие функции, как правило, неизвестны. Если же случайный характер результатов наблюдений обусловлен погрешностями измерений, то полагают, что наблюдения имеют нормальное распределение. Это обусловлено тем, что погрешности измерений складываются из большого числа небольших возмущений, ни одно из которых не является преобладающим. Согласно же центральной предельной теореме сумма бесконечно большого числа взаимно независимых бесконечно малых случайных величин с любыми распределениями имеет нормальное распределение. Нормальное распределение для img ENYRT7случайной величиных с математическим ожиданием img 2H03yHи дисперсиейs имеет вид: Реально даже воздействие ограниченного числа возмущений приводит к нормальному распределению результатов измерений и их погрешностей. В настоящее время наиболее полно разработан математический аппарат именно для случайных величин, имеющих нормальное распределение. Если же предположение о нормальности распределения отвергается, то статистическая обработка наблюдений существенно усложняется и в таком случае невозможно рекомендовать общую методику статистической обработки наблюдений. Часто даже не известно, какая характеристика распределения может служить оценкой истинного значения измеряемой величины. Выше приведено аналитическое выражение нормального распределения для случайной измеряемой величины х. Переход к нормальному распределению случайных погрешностей img 264p2iосуществляется переносом центра распределений вimg XeH095и откладывания по оси абсцисс погрешностиimg KHZXI4. Нормальное распределение характеризуется двумя парамет-рами: математическим ожиданием m1 и средним квадратическим отклонением σ. При многократных измерениях несмещенной, состоятельной и эффективной оценкой m1 для группы из n наблюдений является среднее арифметическое img rk0OoC:img ntCRs3. Нужно сказать, что среднее арифметическое дает оценку математического ожидания результата наблюдений и может бытьоценкой истинного (действительного) значения измеряемой величины только после исключения систематических погрешностей. Оценка S среднего квадратического отклонения (СКО) дается формулой: imgЭта оценка характеризуетрассеяние единичных результатов измерений в ряду равноточных измерений одной и той же величины около их среднего значения. Другими оценками рассеяния результатов в ряду измерений являются размах (разница между наибольшим и наименьшим значением), модуль средней арифметической погрешности (арифметическая сумма погрешностей, деленная на число измерений) и доверительная граница погрешности (подробно рассматривается ниже). СКО является наиболее удобной характеристикой погрешности в случае ее дальнейшего преобразования. Например, для нескольких некоррелированных слагаемых СКО суммы определяется по формуле: img zhufKD. Оценка S характеризует рассеяние единичных результатов наблюдений относительно среднего значения, то есть в случае, если мы за результат измерений примем отдельный исправленный результат наблюдений. Если же в качестве результата измерений принимается среднее арифметическое, то СКО этого среднегоimg aHJ9SVопределяется по формуле:img DZjwapНормальное распределение погрешностей имеет следующиесвойства:

симметричность, т.е. погрешности, одинаковые по величине, но противоположные по знаку, встречаются одинаково часто;

математическое ожидание случайной погрешности равно нулю;

малые погрешности более вероятны, чем большие;

чем меньше s, тем меньше рассеяние результатов наблюдений и больше вероятность малых погрешностей.

Приведенные выше оценки параметров распределения случайных величин в виде среднего арифметического для оценки математического ожидания и СКО для оценки дисперсии называются точечными оценками, так как они выражаются одним числом. Однако в некоторых случаях знание точечной оценки является недостаточным. Наиболее корректной и наглядной оценкой случайной погрешности измерений является оценка с помощью доверительных интервалов. Симметричный интервал в границами ± Δх(Р) называется доверительным интервалом случайной погрешности с довери-тельной вероятностью Р, если площадь кривой распределения между абсциссами –Δх и +Δх составляет Р-ю часть всей площади под кривой плотности распределения вероятностей. При нормировке всей площади на единицу Р представляет часть этой площади в долях единицы (или в процентах). Другими словами, в интервале от -Dх(Р) до +Dх(Р) с заданной вероятностью Р встречаются Р×100% всех возможных значений случайной погрешности. Доверительный интервал для нормального распределения находится по формуле: img gNnGt1где коэффициентt зависит от доверительной вероятности Р. Для нормального распределения существуют следующие соотношения между доверительными интервалами и доверительной вероятностью: 1s (Р=0,68), 2s (Р= 0,95), 3s (Р= 0,997), 4s (Р=0,999).

Доверительные вероятности для выражения результатов измерений и погрешностей в различных областях науки и техники принимаются равными. Так, в технических измерениях принята доверительная вероятность 0,95. Лишь для особо точных и ответственных измерений принимают более высокие доверительные вероятности. В метрологии используют, как правило, доверитель-ные вероятности 0,97, в исключительных случаях 0,99. Необходимо отметить, что точность измерений должна соответствовать поставленной измерительной задаче. Излишняя точность ведет к неоправданному расходу средств. Недостаточная точность измерений может привести к принятию по его результатам ошибочных решений с самыми непредсказуемыми последствиями, вплоть до серьезных материальных потерь или катастроф.

При проведении многократных измерений величины х, подчиняющейся нормальному распределению, доверительный интервал может быть построен для любой доверительной вероятности по формуле: img yA14y5гдеtq– коэффициент Стьюдента, зависящий от числа наблюдений n и выбранной доверительной вероятности Р. Он определяется с помощью таблицы q-процентных точек распределения Стьюдента, которая имеет два параметра: k = n – 1 и q= 1 – P; img 3rT8TC– оценка среднего квадратического отклонения среднего арифметического. Доверительный интервал для погрешностиDх(Р) позволяет построить доверительный интервал для истинного (действительного) значения измеряемой величины , оценкой которой является среднее арифметическое img K4lccF. Истинное значение измеряемой величины находится с доверительной вероятностью Р внутри интервала:img 8e6Ur5. Доверительный интервал позволяет выяснить, насколько может измениться полученная в результате данной серии измерений оценка измеряемой величины при проведении повторной серии измерений в тех же условиях. Необходимо отметить, что доверительные интервалы строят длянеслучайных величин, значения которых неизвестны. Такими являются истинное значение измеряемой величины и средние квадратические отклонения. В то же время оценки этих величин, получаемые в результате обработки данных наблюдений, являются случайными величинами. Недостатком доверительных интервалов при оценке случай-ных погрешностей является то, что при произвольно выбираемых доверительных вероятностях нельзя суммировать несколько погреш-ностей, т.к. доверительный интервал суммы не равен сумме довери-тельных интервалов. Суммируются дисперсии независимых случай-ных величин: Då = åDi. То есть, для возможности суммирования составляющие случайной погрешности должны быть представлены своими СКО, а не предельными или доверительными погрешностями.

Источник

Глава 2 Элементы теории ошибок

2.1 Случайная величина

Гистограммы.

Свойства распределений.

Из определения функции w ⁢ ( x ) следует, что вероятность получить в результате эксперимента величину x в диапазоне от a до b можно найти, вычислив интеграл:

Согласно определению вероятности, сумма вероятностей для всех возможных случаев всегда равна единице. Поэтому интеграл распределения w ⁢ ( x ) по всей области значений x (то есть суммарная площадь под графиком w ⁢ ( x ) ) равен единице:

Среднее и дисперсия.

Вычислим среднее по построенной гистограмме. Если размер корзин h достаточно мал, все измерения в пределах одной корзины можно считать примерно одинаковыми. Тогда среднее арифметическое всех результатов можно вычислить как

Переходя к пределу, получим следующее определение среднего значения случайной величины:

Доверительный интервал.

2.2 Нормальное распределение

Доказательство теоремы довольно громоздко и мы его не приводим (его можно найти в любом учебнике по теории вероятностей). Остановимся кратко на том, что такое нормальное распределение и его основных свойствах.

Плотность нормального распределения выражается следующей формулой:

Доверительные вероятности.

Вычислим некоторые доверительные вероятности ( 2.4 ) для нормально распределённых случайных величин.

Вероятность того, что результат отдельного измерения x окажется в пределах x ¯ ± σ оказывается равна

Вероятность отклонения в пределах x ¯ ± 2 ⁢ σ :

а в пределах x ¯ ± 3 ⁢ σ :

Сравнение результатов измерений.

Теперь мы можем дать количественный критерий для сравнения двух измеренных величин или двух результатов измерения одной и той же величины.

2.3 Независимые величины

Таким образом, при сложении независимых величин их погрешности складываются среднеквадратичным образом.

Эти обстоятельства важны при планирования эксперимента: как правило, величина, измеренная наименее точно, вносит наибольший вклад в погрешность конечного результата. При этом, пока не устранены наиболее существенные ошибки, бессмысленно гнаться за повышением точности измерения остальных величин.

2.4 Погрешность среднего

Если < x i >есть набор независимых измерений одной и той же физической величины, то мы можем, применяя результат ( 2.7 ) предыдущего параграфа, записать

поскольку под корнем находится n одинаковых слагаемых. Отсюда с учётом =Z/n» display=»inline»> ⟨ x ⟩ = Z / n получаем

Подчеркнём отличия между σ x и >» display=»inline»> σ ⟨ x ⟩ :

2.5 Результирующая погрешность опыта

Предположим для простоты, что измеряемая величина в принципе может быть определена сколь угодно точно, так что можно говорить о некотором её «истинном» значении x ист (иными словами, погрешность результата связана в основном именно с процессом измерения). Назовём полной погрешностью измерения среднеквадратичное значения отклонения от результата измерения от «истинного»:

Причём случайную составляющую можно считать независимой от систематической. В таком случае из ( 2.7 ) находим:

Таким образом, для получения максимального значения полной погрешности некоторого измерения нужно квадратично сложить максимальную систематическую и случайную погрешности.

Если измерения проводятся многократно, то согласно ( 2.8 ) случайная составляющая погрешности может быть уменьшена, а систематическая составляющая при этом остаётся неизменной:

Отсюда следует важное практическое правило (см. также обсуждение в п. 2.3 ): если случайная погрешность измерений в 2–3 раза меньше предполагаемой систематической, то нет смысла проводить многократные измерения в попытке уменьшить погрешность всего эксперимента. В такой ситуации измерения достаточно повторить 2–3 раза — чтобы убедиться в повторяемости результата, исключить промахи и проверить, что случайная ошибка действительно мала. В противном случае повторение измерений может иметь смысл до тех пор, пока погрешность среднего >=frac<sigma_><sqrt>» display=»inline»> σ ⟨ x ⟩ = σ x n не станет меньше систематической.

2.6 Обработка косвенных измерений

Косвенными называют измерения, полученные в результате расчётов, использующих результаты прямых (то есть «непосредственных») измерений физических величин. Сформулируем основные правила пересчёта погрешностей при косвенных измерениях.

2.6.1 Случай одной переменной

В качестве «наилучшего» приближения для y используем значение функции при «наилучшем» x :

Пример. Для y = 1 / x имеем ε 1 / x = ε x — при обращении величины сохраняется её относительная погрешность.

2.6.2 Случай многих переменных

Для нахождения погрешности σ u воспользуемся свойством, известным из математического анализа, — малые приращения гладких функции многих переменных складываются линейно, то есть справедлив принцип суперпозиции малых приращений:

σ u 2 = f x ′ ⁣ 2 ⁢ σ x 2 + f y ′ ⁣ 2 ⁢ σ y 2 + … (2.11)

Это и есть искомая общая формула пересчёта погрешностей при косвенных измерениях.

Остановимся на некоторых важных частных случаях формулы ( 2.11 ).

По итогам данного раздела можно дать следующие практические рекомендации.

При этом, как следует из ( 2.13 ), особое внимание следует уделять измерению величин, возводимых при расчётах в степени с большими показателями. А при сложных функциональных зависимостях имеет смысл детально проанализировать структуру формулы ( 2.11 ): если вклад от некоторой величины в общую погрешность мал, нет смысла гнаться за высокой точностью её измерения, и наоборот, точность некоторых измерений может оказаться критически важной.

Источник

Законы распределения случайных величин

ЛЕКЦИЯ 4.

Случайные погрешности измерений и способы их описания.

При выполнении повторных измерений одной и той же величины легко убедиться, что результаты отдельных измерений отличаются друг от друга. Это объясняется действием случайных погрешностей. Случайные погрешности вызываются большим числом причин, действующих независимо друг от друга. Их нельзя исключить опытным путем, но их влияние на результат измерения можно оценить, проведя ряд наблюдений одной и той же величины. Результат измерения всегда содержит как систематическую DС, так и случайную погрешности, т.е. image002, поэтому погрешность результата измерения в общем случае нужно рассматривать как случайную величину. Тогда систематическая погрешность есть математическое ожидание этой величины, а случайная погрешность – центрированная случайная величина. Со статистических позиций можно дать следующие определения составляющих погрешности.

Систематическая погрешность image004– отклонение математического ожидания mx результатов наблюдений от истинного значения А измеряемой величины:

image006.

Случайная погрешность image008— разность между результатом единичного наблюдения и математическим ожиданием результатов:

image010.

Математическое ожидание погрешности равно математическому ожиданию систематической составляющей погрешности, так как математическое ожидание случайной погрешности всегда равно нулю:

image012.

Законы распределения случайных величин

Полным описанием случайной величины, а, следовательно, и погрешности является ее закон распределения. Этим законом распределения и определяется характер появления различных результатов отдельных измерений в ряду наблюдений.

В практике электрических измерений встречаются различные законы распределения. Это равномерное (прямоугольное) распределение, нормальное распределение Гаусса, распределение c 2 (хи-квадрат), распределение t-Стьюдента и др. Одним из наиболее распространенных законов распределения погрешностей является нормальный закон (Гаусса), который базируется на центральной предельной теореме теории вероятностей, согласно которой нормальное распределение плотности вероятности имеет сумма бесконечно большого числа бесконечно малых случайных возмущений с любыми распределениями. Применительно к измерениям это означает, что нормальное распределение случайных погрешностей возникает тогда, когда на результат измерения действует множество случайных возмущений и ни одно из которых не является преобладающим. Практически, суммарное воздействие даже сравнительно небольшого числа возмущений приводит к закону распределения результатов и погрешностей измерений, близкому к нормальному. Закон нормального распределения имеет фундаментальное значение для теории обработки результатов измерений. Он позволяет вести расчеты даже тогда, когда действительный закон неизвестен.

Математически нормальное распределение случайных погрешностей может быть представлено формулой

image014,

image018Характер кривых, описываемых этим уравнением для двух значений s ( image020), показан на рис.4.1.

Из этих кривых видно, что чем меньше s, тем чаще встречаются малые случайные погрешности, т.е. тем точнее выполнены измерения. Кривые симметричны относительно оси ординат, так как положительные и отрицательные погрешности встречаются одинаково часто.

Основные характеристики законов распределения.

Основными характеристиками являются математическое ожидание и дисперсия.

Математическое ожиданиеряда наблюдений есть величина, относительно которой рассеиваются результаты отдельных измерений. Если систематическая погрешность отсутствует, и разброс результатов отдельных измерений обусловлен только случайной погрешностью, то математическим ожиданием такого ряда наблюдений будет истинное значение измеряемой величины. Если же результаты отдельных измерений кроме случайной погрешности содержат постоянную систематическую погрешность, то математическое ожидание ряда наблюдений будет смещено от истинного значения измеряемой величины на значение систематической погрешности.

ДисперсияD ряда наблюдений характеризует степень рассеивания (разброса) результатов отдельных наблюдений вокруг математического ожидания. Чем меньше дисперсия, тем меньше разброс отдельных результатов, тем точнее выполнены измерения. Следовательно, дисперсия может служить характеристикой точности проведенных измерений. Однако, дисперсия выражается в единицах в квадрате измеряемой величины. Поэтому в качестве характеристики точности ряда наблюдений наиболее часто применяют среднее квадратическое отклонение результата наблюдения (СКО) s, равное корню квадратному из дисперсии с положительным знаком и выражаемое в единицах измеряемой величины. Среднее квадратическое отклонение, отнесенное к значению измеряемой величины, может быть выражено в относительных единицах или процентах.

Источник

Нормальный закон распределения погрешностей

Для характеристики свойств случайной величины в теории вероятности используется понятие закона распределения вероятностей случайной величины. Различают две формы описания закона распределения: интегральную и дифференциальную. В метрологии используют преим. Дифференциальную – закон распределения плотности вероятностей случайной величины.

Номер интервала
nk
nk/n 0,1 0,2 0,36 0,22 0,12

При бесконечном повторении и увеличении n ступенчатая кривая перейдет в плавную кривую f(x) – кривая плотности распределения вероятности случайной величины.(Или r)

Числовые характеристики распределений:

1. Математическое ожидание (среднее арифметическое):

image050= 25

2. Среднее квадратичное отклонение (СКО) или рассеивание единичных результатов и дисперсияч:

где D – дисперсия. image054

Качество и точность измерений тем выше, чем меньше СКО, тем меньше вероятность рассеивания результатов наблюдений D.

Рис 1.12. Графики нормального закона распределения плотности вероятности случайных погрешностей

image056

Чаще начало координат совмещают с центром распрелделения.

В аналитической форме закон нормального закона распределения записывают:

f(x)= image058.

где s – среднеквадратическое отклонение(СКО), характеризующее точность выполненных измерений (чем меньше s, тем выше точность). По мере уменьшения s рассеяние случайных погрешностей D относительно центра их распределения, (в данном случае относительно значения D= 0) уменьшается. На рис. 1.12 изображены кривые нормального распределения случайных погрешностей для различных значений среднеквадратичного отклонения. Из рисунка видно, что по мере увеличения среднеквадратического отклонения распределение все более и более расплывается, вероятность появления больших значений погрешностей возрастает, а вероятность меньших погрешностей сокращается, т.е. увеличивается рассеивание результатов наблюдений.

На графике плотности вероятности для конкретного СКО (см. рис. 1.12) вероятность численно равна площади S заштрихованной фигуры, ограниченной функцией r(D), отрезком оси D от –DГ1 до DГ1 и ординатами r(–DГ1), r(DГ1). Чем шире заданный интервал погрешностей, тем больше площадь S, т.е. больше вероятность попадания случайных погрешностей измерений D в этот интервал. Для интервала (–¥,+¥) вероятность R(–¥ £ D £ +¥) =1.

Более универсальным методом является оценки погрешности с использованием доверительных интервалов: На графике норм. распределения отложены интервалы с границами ±s ±2s и т.д.

Доверительные вероятности для этих интервалов в таб. В технике принят 99% уровень надежности, т.е. границы ±3s.

Источник

Понравилась статья? Поделить с друзьями:
  • Что такое синтаксические ошибки в информатике
  • Что такое систематическая ошибка исследования
  • Что такое синтаксические ошибки в pascal
  • Что такое систематическая ошибка геодезия
  • Что такое синтаксические и пунктуационные ошибки