Если ошибки не имеют нормального распределения

Итак, предположив,
что в модели наблюдений

ошибки
независимые случайные величины,
имеющие одинаковое распределение
(i.
i. d
), мы должны сделать и
предположение о том,каким именноявляется это распределение.

Классические
методы статистического анализа линейных
моделей наблюдений предполагают, что
таковым является распределение
Гаусса
(Gaussian distribution),
функция плотности которого имеет вид

График указанной
функции плотности имеет колоколообразную
форму

Параметр
характеризует степень рассредоточения
распределения вдоль оси абсцисс. На
диаграмме представлены графики функций
плотности гауссовского распределения
при трех различных значениях параметра.
Из трех представленных функций наибольшее
значение в нуле имеет функция плотности
с,
наименьшее — функция плотности с,
а промежуточное между ними — функция
плотности с.
Эти значения равны, соответственно,

Гауссовское
распределение симметрично относительно
нуля
, и это предполагает, чтоположительные ошибки столь же вероятны,
как и отрицательные
; при этом, малые
ошибки встречаются чаще, чем большие
.
Если случайная ошибка имеет гауссовское
распределение с параметром,
тос вероятностью ее значение будет заключено в пределах
от

до
.
Соответственно, для трех рассмотренных
случаев получаем: с вероятностьюзначение случайной ошибки заключено в
интервале

—при
,
при,
при.

Хотя гауссовское
распределение довольно часто вполне
приемлемо для описания случайных ошибок
в моделях наблюдений, оно вовсе не
является универсальным. Такое распределение
характерно для ситуаций, когда
результирующая ошибка является следствием
сложения большого количества независимых
случайных ошибок, каждая из которых
достаточно мала.

Мы будем далее в
этом параграфе предполагать, что процесс
порождения данных
(ППД,
или DGP- data generating process)устроен
следующим образом. Значенияизвестны точнои рассматриваются
какзаданные, а значенияполучаютсяналожениемна значенияслучайных ошибок.

В этом контексте,
рассматриваются как некоторыепостоянные(хотя ине известныенаблюдателю).
Напротив, значенияносятслучайныйхарактер, определяемый
случайным характером значений.
Собственно,отличается от случайной величинылишьсдвигом на постоянную ,
и потому также является случайной
величиной
. Мы будем обозначать ее в
этом качестве как случайную величину.
Функция распределения этой случайной
величины имеет вид

где
— функция распределения случайной
величины(одинаковаядля всех).
Соответственно, функция плотности
распределения случайной величиныимеет вид

где
— функция плотности распределения
случайной величины.

Таким образом,
случайные величины
хотя и являются взаимно независимыми
(в силу предполагаемой взаимной
независимости случайных величин),
но имеютразные распределения,отличающиеся сдвигом. На следующем
рисунке представлены графики функции
плотностираспределения(гауссовское распределение с параметром)
и функции плотностираспределения случайной величиныпри значении.

Заметим, что если
случайная ошибка
имеетгауссовское распределение с
плотностью

то отличающаяся
от нее сдвигом случайная величина
имеет функцию плотности

Эта функция
плотности принадлежит двухпараметрическому
семейству функций плотности вида

Функции
плотности такого вида называются
нормальными плотностями, а
определяемые ими распределения
вероятностей называютсянормальными
распределениями вероятностей
. Если
некоторая случайная величинаимеет плотность распределения, заданную
последним соотношением, то говорят, чтослучайная величина Y имеет нормальное
распределение с параметрами

и
2.
Распределение такой случайной величины
симметрично относительно своегосреднего
значения.
Максимальное значение функции плотности
этой случайной величины достигается
при.

Таким образом,
строго говоря, гауссовское распределение
— это нормальное распределение с нулевым
средним значением.
Однако, в современной
научной литературе терминынормальное
распределение
игауссовское
распределение
используются как
синонимы
:нормальное распределение
с параметрами

и
называют
такжегауссовским распределением
с параметрами

и
2.

Важнейшая роль
предположения о нормальном (гауссовском)
распределении ошибок в линейной модели
наблюдений

определяется тем
обстоятельством, что при добавлении
такого предположения к стандартному
предположению
о том, что ошибкинезависимые случайные величины,
имеющие одинаковое распределение
,
можно легко найти точный вид распределения
оценок наименьших квадратов для
неизвестных значений параметров модели.

Вспомним, в этой
связи, полученное ранее выражение

Обозначая

мы можем записать
выражение для
в виде

где

Таким образом,

где
фиксированные величины, анаблюдаемые значения случайных
величин
.
Поэтомувычисленноепо последней
формуле значениеявляетсянаблюдаемым значением
случайной величины

которая является
линейной комбинацией случайных величини имеет некоторое распределение
вероятностей, зависящее от распределения
последних.

В общем случае,
аналитическое описание распределения
как случайной величины довольно
затруднительно. Более просто эта задача
решается в ситуации, когдаимеетгауссовскоераспределение.
Если ошибкинезависимые случайные величины,
имеющие одинаковое нормальное
распределение с нулевым средним
, то
тогда оценка наименьших квадратовпараметратакже имеет нормальное распределение.
Чтобы указать параметры этого нормального
распределения и иметь возможность
проводить статистический анализ
подобранной модели линейной связи между
переменными факторами, нам придется
уделить внимание некоторым важным
числовым характеристикам случайных
величин и их свойствам.

Содержание:

Нормальный закон распределения:

Нормальный закон распределения имеет плотность вероятности

Нормальный закон распределения - определение и вычисление с примерами решения

где Нормальный закон распределения - определение и вычисление с примерами решения

График функции плотности вероятности (2.9.1) имеет максимум в точке Нормальный закон распределения - определение и вычисление с примерами решения а точки перегиба отстоят от точки Нормальный закон распределения - определение и вычисление с примерами решения на расстояние Нормальный закон распределения - определение и вычисление с примерами решения При Нормальный закон распределения - определение и вычисление с примерами решения функция (2.9.1) асимптотически приближается к нулю (ее график изображен на рис. 2.9.1).

Нормальный закон распределения - определение и вычисление с примерами решения

Помимо геометрического смысла, параметры нормального закона распределения имеют и вероятностный смысл. Параметр Нормальный закон распределения - определение и вычисление с примерами решения равен математическому ожиданию нормально распределенной случайной величины, а дисперсия Нормальный закон распределения - определение и вычисление с примерами решения Если Нормальный закон распределения - определение и вычисление с примерами решения т.е. X имеет нормальный закон распределения с параметрами Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения то Нормальный закон распределения - определение и вычисление с примерами решения

где Нормальный закон распределения - определение и вычисление с примерами решения– функция Лапласа

Значения функции Нормальный закон распределения - определение и вычисление с примерами решения можно найти по таблице (см. прил., табл. П2). Функция Лапласа нечетна, т.е. Нормальный закон распределения - определение и вычисление с примерами решения Поэтому ее таблица дана только для неотрицательныхНормальный закон распределения - определение и вычисление с примерами решения График функции Лапласа изображен на рис. 2.9.2. При значениях Нормальный закон распределения - определение и вычисление с примерами решения она практически остается постоянной. Поэтому в таблице даны значения функции только для Нормальный закон распределения - определение и вычисление с примерами решения При значениях Нормальный закон распределения - определение и вычисление с примерами решения можно считать, что Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения

Если Нормальный закон распределения - определение и вычисление с примерами решения то

Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Случайная величина X имеет нормальный закон распределения Нормальный закон распределения - определение и вычисление с примерами решения Известно, что Нормальный закон распределения - определение и вычисление с примерами решения а Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения Найти значения параметров Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения

Решение. Воспользуемся формулой (2.9.2): Нормальный закон распределения - определение и вычисление с примерами решения

Так как Нормальный закон распределения - определение и вычисление с примерами решения По таблице функции Лапласа (см. прил., табл. П2) находим, что Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения Поэтому Нормальный закон распределения - определение и вычисление с примерами решения или Нормальный закон распределения - определение и вычисление с примерами решения

Аналогично Нормальный закон распределения - определение и вычисление с примерами решения Так как Нормальный закон распределения - определение и вычисление с примерами решения то Нормальный закон распределения - определение и вычисление с примерами решения По таблице функции Лапласа (см. прил., табл. П2) находим, что Нормальный закон распределения - определение и вычисление с примерами решения Поэтому Нормальный закон распределения - определение и вычисление с примерами решения или Нормальный закон распределения - определение и вычисление с примерами решения Из системы двух уравнений Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения находим, что Нормальный закон распределения - определение и вычисление с примерами решения а  Нормальный закон распределения - определение и вычисление с примерами решения т.е. Нормальный закон распределения - определение и вычисление с примерами решения Итак, случайная величина X имеет нормальный закон распределения N(3;4).

График функции плотности вероятности этого закона распределения изображен на рис. 2.9.3.

Нормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Ошибка измерения X имеет нормальный закон распределения, причем систематическая ошибка равна 1 мк, а дисперсия ошибки равна 4 мк2. Какова вероятность того, что в трех независимых измерениях ошибка ни разу не превзойдет по модулю 2 мк?

Решение. По условиям задачи Нормальный закон распределения - определение и вычисление с примерами решения Вычислим сначала вероятность того, что в одном измерении ошибка не превзойдет 2 мк. По формуле (2.9.2)Нормальный закон распределения - определение и вычисление с примерами решения

Вычисленная вероятность численно равна заштрихованной площади на рис. 2.9.4.

Нормальный закон распределения - определение и вычисление с примерами решения

Каждое измерение можно рассматривать как независимый опыт. Поэтому по формуле Бернулли (2.6.1) вероятность того, что в трех независимых измерениях ошибка ни разу не превзойдет 2 мк, равна Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Функция плотности вероятности случайной величины X имеет вид Нормальный закон распределения - определение и вычисление с примерами решения

Требуется определить коэффициент Нормальный закон распределения - определение и вычисление с примерами решения найти Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения определить тип закона распределения, нарисовать график функции Нормальный закон распределения - определение и вычисление с примерами решения вычислить вероятность Нормальный закон распределения - определение и вычисление с примерами решения

Замечание. Если каждый закон распределения из некоторого семейства законов распределения имеет функцию распределения , Нормальный закон распределения - определение и вычисление с примерами решения где Нормальный закон распределения - определение и вычисление с примерами решения– фиксированная функция распределения, a Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения то говорят, что эти законы распределения принадлежат к одному виду или типу распределений. Параметр Нормальный закон распределения - определение и вычисление с примерами решения называют параметром сдвига, Нормальный закон распределения - определение и вычисление с примерами решения – параметром масштаба.

Решение. Так как (2.9.4) функция плотности вероятности, то интеграл от нее по всей числовой оси должен быть равен единице: Нормальный закон распределения - определение и вычисление с примерами решения

Преобразуем выражение в показателе степени, выделяя полный квадрат: Нормальный закон распределения - определение и вычисление с примерами решения

Тогда (2.9.5) можно записать в виде Нормальный закон распределения - определение и вычисление с примерами решения

Сделаем замену переменных так, чтобы Нормальный закон распределения - определение и вычисление с примерами решения т.е. Нормальный закон распределения - определение и вычисление с примерами решения Пределы интегрирования при этом останутся прежними. Тогда (2.9.6) преобразуется к виду

Нормальный закон распределения - определение и вычисление с примерами решения

Умножим и разделим левую часть равенства на Нормальный закон распределения - определение и вычисление с примерами решения Получим равенство Нормальный закон распределения - определение и вычисление с примерами решения

Так как Нормальный закон распределения - определение и вычисление с примерами решения  как интеграл по всей числовой оси от функции плотности вероятности стандартного нормального закона распределения N(0,1), то приходим к выводу, что

Нормальный закон распределения - определение и вычисление с примерами решения

Поэтому

Нормальный закон распределения - определение и вычисление с примерами решения

Последняя запись означает, что случайная величина имеет нормальный закон распределения с параметрами Нормальный закон распределения - определение и вычисление с примерами решения и Нормальный закон распределения - определение и вычисление с примерами решения График функции плотности вероятности этого закона изображен на рис. 2.9.5. Распределение случайной величины X принадлежит к семейству нормальных законов распределения. По формуле (2.9.2)

Нормальный закон распределения - определение и вычисление с примерами решения

Ответ. Нормальный закон распределения - определение и вычисление с примерами решения

Пример:

Цех на заводе выпускает транзисторы с емкостью коллекторного перехода Нормальный закон распределения - определение и вычисление с примерами решения Сколько транзисторов попадет в группу Нормальный закон распределения - определение и вычисление с примерами решения если в нее попадают транзисторы с емкостью коллекторного перехода от 1,80 до 2,00 пФ. Цех выпустил партию в 1000 штук.

Решение.

Статистическими исследованиями в цеху установлено, что Нормальный закон распределения - определение и вычисление с примерами решения можно трактовать как случайную величину, подчиняющуюся нормальному закону.

Чтобы вычислить количество транзисторов, попадающих в группу Нормальный закон распределения - определение и вычисление с примерами решения необходимо учитывать, что вся партия транзисторов имеет разброс параметров, накрывающий всю (условно говоря) числовую ось. То есть кривая Гаусса охватывает всю числовую ось, центр ее совпадает с Нормальный закон распределения - определение и вычисление с примерами решения (т. к. все установки в цеху настроены на выпуск транзисторов именно с этой емкостью). Вероятность попадания отклонений параметров всех транзисторов на всю числовую ось равна 1. Поэтому нам необходимо фактически определить вероятность попадания случайной величины Нормальный закон распределения - определение и вычисление с примерами решения в интервал Нормальный закон распределения - определение и вычисление с примерами решения а затем пересчитать количество пропорциональной вероятности.

Для расчета этой вероятности надо построить математическую модель. Экспериментальные данные говорят о том, что нормальное распределение можно принять в качестве математической модели. Эмпирическая оценка (установлена статистическими исследованиями в цеху) среднего значения Нормальный закон распределения - определение и вычисление с примерами решения

дает Нормальный закон распределения - определение и вычисление с примерами решения оценка среднего квадратического отклонения Нормальный закон распределения - определение и вычисление с примерами решения

Обозначая Нормальный закон распределения - определение и вычисление с примерами решения подставим приведенные значения в (6.3):
Нормальный закон распределения - определение и вычисление с примерами решения

Тогда количество транзисторов Нормальный закон распределения - определение и вычисление с примерами решения попавших в интервал [1,8; 2,0] пФ, можно найти так: Нормальный закон распределения - определение и вычисление с примерами решения Таким образом можно планировать и рассчитывать количество транзисторов, попадающих в ту или иную группу.

Нормальное распределение и его свойства

Если выйти на улицу любого города и случайным образом выбранных прохожих спросить о том, какой у них рост, вес, возраст, доход, и т.п., а потом построить график любой из этих величин, например, роста… Но не будем спешить, сначала посмотрим, как можно построить такой график.

Сначала, мы просто запишем результаты своего исследования. Потом, мы отсортируем всех людей по группам, так чтобы каждый попал в свой диапазон роста, например, «от 180 до 181 включительно».

После этого мы должны посчитать количество людей в каждой подгруппе-диапазоне, это будет частота попадания роста жителей города в данный диапазон. Обычно эту часть удобно оформить в виде таблички. Если затем эти частоты построить по оси у, а диапазоны отложить по оси х, можно получить так называемую гистограмму, упорядоченный набор столбиков, ширина которых равна, в данном случае, одному сантиметру, а длина будет равна той частоте, которая соответствует каждому диапазону роста. Если

Вам попалось достаточно много жителей, то Ваша схема будет выглядеть примерно так:

Нормальный закон распределения - определение и вычисление с примерами решения

Дальше можно уточнить задачу. Каждый диапазон разбить на десять, жителей рассортировать по росту с точностью до миллиметра. Диаграмма станет глаже, но уменьшится по высоте, «оплывет» вниз, т.к. в каждом маленьком диапазоне количество жителей уменьшается. Чтобы избежать этого, просто увеличим масштаб по вертикальной оси в 10 раз. Если гипотетически повторить эту процедуру несколько раз, будет вырисовываться та знаменитая колоколообразная фигура, которая характерна для нормального (или Гауссова) распределения. В результате, относительная частота встречаемости каждого конкретного диапазона роста может быть посчитана как отношение площади «ломтика» кривой, приходящегося на этот диапазон к площади подо всей кривой. Стандартизированные кривые нормального распределения, значения функций которых приводятся в таблицах книг по статистике, всегда имеют суммарную площадь под кривой равную единице. Это связано с тем, что, как Вы помните из курса теории вероятности, вероятность достоверного события всегда равна 100% (или единице), а для любого человека иметь хоть какое-то значение роста — достоверное событие. А вот вероятность того, что рост произвольного человека попадет в определенный выбранный нами диапазон, будет зависеть от трех факторов.

Во-первых, от величины такого диапазона — чем точнее наши требования, тем меньше вероятности, что нам повезет.

Во-вторых, от того, насколько «популярен» выбранный нами рост. Напомним, что мода — самое часто встречающееся значение роста. Кстати для нормального распределения мода, медиана и среднее значение совпадают. Кривая нормального распределения симметрична относительно среднего значения.

И, в-третьих, вероятность попадания роста в определенный диапазон зависит от характеристики рассеивания случайной величины. Отчасти это связано с единицами измерения (представьте, что мы бы измеряли людей в дюймах, а не в миллиметрах, но сами люди и их рост были бы теми же). Но дело не только в этом. Просто некоторые процессы кучнее группируются возле среднего значения, в то время как другие более разбросаны.

Например, рост собак и рост домашних кошек имеют разный разброс значений, их кривые нормального распределения будут выглядеть по-разному (напомним еще раз, что площадь под обеими кривыми будет единичной).

Так, кривая для роста кошек будет более узкой и высокой, а для роста собак кривая будет ниже и шире. Для характеристики разброса конечного ряда данных в прошлом разделе мы использовали величину среднего квадратического отклонения. Аналогичная величина используется для характеристики кривой нормального распределения. Она обозначается буквой s и называется в этом случае стандартным отклонением. Это очень важная величина для кривой нормального распределения. Кривая нормального распределения полностью задана, если известно среднее значение Нормальный закон распределения - определение и вычисление с примерами решения и отклонение s. Кроме того, любой житель города с вероятностью 68% попадет в диапазон роста Нормальный закон распределения - определение и вычисление с примерами решения с вероятностью 95% — в диапазон Нормальный закон распределения - определение и вычисление с примерами решенияНормальный закон распределения - определение и вычисление с примерами решения и с вероятностью 99,7% — в диапазон Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения

Для вычисления других значений вероятности, которые могут Вам понадобиться, можно воспользоваться приведенной таблицей:

Таблица вероятности попадания случайной величины в отмеченный (заштрихованный) диапазон

Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения

Нормальный закон распределения случайных величин, который иногда называют законом Гаусса или законом ошибок, занимает особое положение в теории вероятностей, так как 95 % изученных случайных величин подчиняются этому закону. Природа этих случайных величин такова, что их значение в проводимом эксперименте связано с проявлением огромного числа взаимно независимых случайных факторов, действие каждого из которых составляет малую долю их совокупного действия. Например, длина детали, изготавливаемой на станке с программным управлением, зависит от случайных колебаний резца в момент отрезания, от веса и толщины детали, ее формы и температуры, а также от других случайных факторов. По нормальному закону распределения изменяются рост и вес мужчин и женщин, дальность выстрела из орудия, ошибки различных измерений и другие случайные величины.

Определение: Случайная величина X называется нормальной, если она подчиняется нормальному закону распределения, т.е. ее плотность распределения задается формулойНормальный закон распределения - определение и вычисление с примерами решения — средне-квадратичное отклонение, a m = М[Х] — математическое ожидание.

Приведенная дифференциальная функция распределения удовлетворяет всем свойствам плотности вероятности, проверим, например, свойство 4.:

Нормальный закон распределения - определение и вычисление с примерами решения

Выясним геометрический смысл параметров Нормальный закон распределения - определение и вычисление с примерами решения Зафиксируем параметр Нормальный закон распределения - определение и вычисление с примерами решения и будем изменять параметр m. Построим графики соответствующих кривых (Рис. 8). Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 8. Изменение графика плотности вероятности в зависимости от изменения математического ожидания при фиксированном значении средне-квадратичного отклонения. Из рисунка видно, кривая Нормальный закон распределения - определение и вычисление с примерами решения получается путем смещения кривой Нормальный закон распределения - определение и вычисление с примерами решения вдоль оси абсцисс на величину m, поэтому параметр m определяет центр тяжести данного распределения. Кроме того, из рисунка видно, что функция Нормальный закон распределения - определение и вычисление с примерами решения достигает своего максимального значения в точке Нормальный закон распределения - определение и вычисление с примерами решения Из этой формулы видно, что при уменьшении параметра Нормальный закон распределения - определение и вычисление с примерами решения значение максимума возрастает. Так как площадь под кривой плотности распределения всегда равна 1, то с уменьшением параметра Нормальный закон распределения - определение и вычисление с примерами решения кривая вытягивается вдоль оси ординат, а с увеличением параметра Нормальный закон распределения - определение и вычисление с примерами решения кривая прижимается к оси абсцисс. Построим график нормальной плотности распределения при m = 0 и разных значениях параметра Нормальный закон распределения - определение и вычисление с примерами решения (Рис. 9): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 9. Изменение графика плотности вероятности в зависимости от изменения средне-квадратичного отклонения при фиксированном значении математического ожидания.

Интегральная функция нормального распределения имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения

График функции распределения имеет вид (Рис. 10): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 10. Графика интегральной функции распределения нормальной случайной величины.

Вероятность попадания нормальной случайной величины в заданный интервал

Пусть требуется определить вероятность того, что нормальная случайная величина попадает в интервал Нормальный закон распределения - определение и вычисление с примерами решения Согласно определениюНормальный закон распределения - определение и вычисление с примерами решения пересчитаем пределы интегрирования Нормальный закон распределения - определение и вычисление с примерами решения Нормальный закон распределения - определение и вычисление с примерами решения Следовательно,Нормальный закон распределения - определение и вычисление с примерами решения

Рассмотрим основные свойства функции Лапласа Ф(х):

  1. Ф(0) = 0 — график функции Лапласа проходит через начало координат.
  2. Ф (-х) = — Ф(х) — функция Лапласа является нечетной функцией, поэтому
  3. таблицы для функции Лапласа приведены только для неотрицательных значений аргумента.
  4. Нормальный закон распределения - определение и вычисление с примерами решения — график функции Лапласа имеет горизонтальные асимптотыНормальный закон распределения - определение и вычисление с примерами решения

Следовательно, график функции Лапласа имеет вид (Рис. 11): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 11. График функции Лапласа.

Пример №1

Закон распределения нормальной случайной величины X имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения Определить вероятность попадания случайной величины X в интервал (-1;8).

Решение:

Согласно условиям задачи Нормальный закон распределения - определение и вычисление с примерами решения Поэтому искомая вероятность равна: Нормальный закон распределения - определение и вычисление с примерами решения 0,4772 + 0,3413 = 0,8185.

Вычисление вероятности заданного отклонения

Вычисление вероятности заданного отклонения. Правило Нормальный закон распределения - определение и вычисление с примерами решения.

Если интервал, в который попадает нормальная случайная величина X, симметричен относительно математического ожидания Нормальный закон распределения - определение и вычисление с примерами решения то, используя свойство нечетности функции Лапласа, получим

Нормальный закон распределения - определение и вычисление с примерами решения

Данная формула показывает, что отклонение случайной величины Х от ее математического ожидания на заданную величину l равна удвоенному значению функции Лапласа от отношения / к среднему квадратичному отклонению. Если положить Нормальный закон распределения - определение и вычисление с примерами решенияслучаях нормальная случайная величина X отличается от своего математического ожидания на величину равную среднему квадратичному отклонению. Если Нормальный закон распределения - определение и вычисление с примерами решения то вероятность отклонения равна Нормальный закон распределения - определение и вычисление с примерами решения Наконец, в случае Нормальный закон распределения - определение и вычисление с примерами решения то вероятность отклонения равна Нормальный закон распределения - определение и вычисление с примерами решения

Нормальный закон распределения - определение и вычисление с примерами решения Из последнего равенства видно, что только приблизительно в 0.3 % случаях отклонение нормальной случайной величины X от своего математического ожидания превышает Нормальный закон распределения - определение и вычисление с примерами решения Это свойство нормальной случайной величины X называется правилом “трех сигм”. На практике это правило применяется следующим образом: если отклонение случайной величины X от своего математического ожидания не превышает Нормальный закон распределения - определение и вычисление с примерами решения то эта случайная величина распределена по нормальному закону.

Показательный закон распределения

Определение: Закон распределения, определяемый фу нкцией распределения:

Нормальный закон распределения - определение и вычисление с примерами решения называется экспоненциальным или показательным.

График экспоненциального закона распределения имеет вид (Рис. 12): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 12. График функции распределения для случая экспоненциального закона.

Дифференциальная функция распределения (плотность вероятности) имеет вид: Нормальный закон распределения - определение и вычисление с примерами решения а ее график показан на (Рис. 13): Нормальный закон распределения - определение и вычисление с примерами решения

Рис. 13. График плотности вероятности для случая экспоненциального закона.

Пример №2

Случайная величина X подчиняется дифференциальной функции распределения Нормальный закон распределения - определение и вычисление с примерами решения Найти вероятность того, что случайная величина X попадет в интервал (2; 4), математическое ожидание M[Х], дисперсию D[X] и среднее квадратичное отклонение Нормальный закон распределения - определение и вычисление с примерами решения Проверить выполнение правила “трех сигм” для показательного распределения.

Решение:

Интегральная функция распределения Нормальный закон распределения - определение и вычисление с примерами решения следовательно, вероятность того, что случайная величина X попадет в интервал (2; 4), равна: Нормальный закон распределения - определение и вычисление с примерами решения Математическое ожидание Нормальный закон распределения - определение и вычисление с примерами решения Вычислим значение величины МНормальный закон распределения - определение и вычисление с примерами решения тогда дисперсия случайной величины X равна Нормальный закон распределения - определение и вычисление с примерами решения а средне-квадратичное

отклонение Нормальный закон распределения - определение и вычисление с примерами решения Для проверки правила “трех сигм” вычислим вероятность заданного отклонения:

Нормальный закон распределения - определение и вычисление с примерами решения

  • Основные законы распределения вероятностей
  • Асимптотика схемы независимых испытаний
  • Функции случайных величин
  • Центральная предельная теорема
  • Повторные независимые испытания
  • Простейший (пуассоновский) поток событий
  • Случайные величины
  • Числовые характеристики случайных величин

Проверка адекватности регрессионной модели и значимости показателей тесноты корреляционной связи

Информация, содержащаяся в эмпирических данных, извлекается с большей полнотой, чем полученная традиционными методами описательной статистики, и, что самое важное, может быть представлена с разных точек зрения. Тем самым перед исследователем открывается обширная область для теоретических выводов, формирования новых представлений и гипотез.

Особое внимание необходимо обратить на интерпретацию и оценку параметров уравнения. Параметры уравнения регрессии следует проверить на их значимость.

Для того чтобы получить оценку значимости коэффициентов регрессии при линейной зависимости у от х, и х2, используют t-кри- терий Стьюдента.

Значимость коэффициентов линейного уравнения регрессии а0 и ах оценивается с помощью ^-критерия Стьюдента (п /табл с уровнем значимости 0,05 и числом степеней свободы (п-т- 1).

Уравнение признают окончательным и применяют в качестве модели изучаемого показателя для последующего анализа в том случае, если в данном уравнении все коэффициенты регрессии значимы.

Показатели множественной регрессии и корреляции могут оказаться подверженными действию случайных факторов, поэтому только после проверки адекватности уравнения оно может быть пригодно.

Прежде всего, следует установить, соответствуют ли полученные данные тем гипотетическим представлениям, которые сложились в результате анализа, и показывают ли они причинно-следственные связи, которые ожидались. Для оценки адекватности модели можно вычислить отклонение теоретических данных от эмпирических, остаточную дисперсию, а также ошибку аппроксимации, которая определяется по формуле:

1) для однофакторной регрессионной модели:

2) для многофакторной регрессионной модели:

Общая оценка адекватности уравнения может быть получена с помощью дисперсионного F-критерия Фишера, на основании которого проводят проверку значимости регрессии:

1) для однофакторной регрессионной модели:

где т — число параметров в уравнении регрессии; п — число единиц наблюдения;

2) для многофакторной регрессионной модели:

Распределение Фишера [Рональд Фишер (1890—1968) — английский ученый] — двухпараметрическое распределение неотрицательной случайной величины, являющейся в частном случае, при т= 1, квадратом случайной величины, распределенной по Стьюденту. Для распределения Фишера имеются таблицы критических значений, зависящих от чисел степеней свободы т и п- т — I, при различных уровнях значимости.

Считается, что влияние факторного признака статистически существенно, для принятого уровня значимости 0,05 или 0,01, если Fp (расчетное) > FT (табличное), то влияние факторного признака считается существенным и данное уравнение регрессии будет статистически значимым.

FT зависит от трех параметров:

  • 1) определяет достоверность выводов (называется уровнем значимости). Для социологических и экономических задач FT 0,05 — определяет вероятность отвергнуть правильную гипотезу в 5 случаях из 100;
  • 2) определяется количеством значений факторного признака
  • (т-1);
  • 3) определяется объемом выборки, уменьшенным на количество значений факторного признака (п — т).

FT определяется по таблице критических значений критерия Фишера.

Вернемся к примеру 10.1.

Проведем оценку адекватности регрессионной модели:

выражающей зависимость между производительностью труда и выполнением плана реализации, с помощью F-критерия Фишера:

Эмпирическое значение Fбольше табличного, следовательно, уравнение регрессии можно признать адекватным.

Оценим значимость параметров уравнения регрессии с помощью /-критерия Стьюдента:

Табличное значение /-критерия с уровнем значимости 0,05 и числом степеней свободы (п — 2) равно 2,307. Так как /эмп > /табл, то параметры уравнения регрессии признаются значимыми.

Значимость коэффициента корреляции оценим с помощью /-критерия Стьюдента по формуле

Эмпирическое значение / больше табличного, следовательно, коэффициент корреляции можно признать значимым.

Вычислим ошибку аппроксимации по формуле

На основании данных расчетов можно сделать заключение, что построенная регрессионная модель зависимости производительности труда от выполнения плана реализации может быть использована для анализа и прогноза.

Итак, в общем виде многообразие видов регрессионных моделей порождается формой связи изучаемых признаков (линейной или нелинейной) и представлениями о распределении остатков (ошибки, шума) модели. Кроме того, модели более высокого уровня включают не одно, а систему регрессионных уравнений. Поиск решений для множества моделей приводит исследователя к задаче преобразования этих моделей и получения форм с хорошо известными и реализуемыми алгоритмами оценивания, как, например, в описанном выше случае с нелинейными моделями. Реформирование моделей производится при помощи трансформационных изменений переменных (отклика предикторов) или введением особых ограничений на признаковые или параметрические значения.

Благодаря своей разработанности и гибкости метод регрессионного анализа в настоящее время широко распространен в аналитической практике. Он становится также неотъемлемой частью или обычным логическим дополнением многих методов многомерной статистики в факторном, дискриминантном анализе, методе канонических корреляций, многомерном шкалировании, кластерном анализе и т. д.

Дальнейшее развитие теории регрессионного анализа, прежде всего, видится в разработке новых нелинейных форм, позволяющих с высокой степенью адекватности описывать реальные процессы, расклассификации многочисленных регрессионных моделей и методов их решения, ориентированной на конкретные группы исследовательских задач, определении перспектив использования регрессионного анализа в сочетании с другими методами статистического анализа.

Пример 10.3. По территории регионов имеются следующие данные:

Прожиточный min в день одного трудоспособного, руб.

Среднедневная заработная плата, руб.

Простая линейная регрессия в EXCEL

history 26 января 2019 г.
    Группы статей

  • Статистический анализ

Регрессия позволяет прогнозировать зависимую переменную на основании значений фактора. В MS EXCEL имеется множество функций, которые возвращают не только наклон и сдвиг линии регрессии, характеризующей линейную взаимосвязь между факторами, но и регрессионную статистику. Здесь рассмотрим простую линейную регрессию, т.е. прогнозирование на основе одного фактора.

Disclaimer : Данную статью не стоит рассматривать, как пересказ главы из учебника по статистике. Статья не обладает ни полнотой, ни строгостью изложения положений статистической науки. Эта статья – о применении MS EXCEL для целей Регрессионного анализа. Теоретические отступления приведены лишь из соображения логики изложения. Использование данной статьи для изучения Регрессии – плохая идея.

Статья про Регрессионный анализ получилась большая, поэтому ниже для удобства приведены ее разделы:

Примечание : Если прогнозирование переменной осуществляется на основе нескольких факторов, то имеет место множественная регрессия .

Чтобы разобраться, чем может помочь MS EXCEL при проведении регрессионного анализа, напомним вкратце теорию, введем термины и обозначения, которые могут отличаться в зависимости от различных источников.

Примечание : Для тех, кому некогда, незачем или просто не хочется разбираться в теоретических выкладках предлагается сразу перейти к вычислительной части — оценке неизвестных параметров линейной модели .

Немного теории и основные понятия

Пусть у нас есть массив данных, представляющий собой значения двух переменных Х и Y. Причем значения переменной Х мы можем произвольно задавать (контролировать) и использовать эту переменную для предсказания значений зависимой переменной Y. Таким образом, случайной величиной является только переменная Y.

Примером такой задачи может быть производственный процесс изготовления некого волокна, причем прочность этого волокна (Y) зависит только от рабочей температуры процесса в реакторе (Х), которая задается оператором.

Построим диаграмму рассеяния (см. файл примера лист Линейный ), созданию которой посвящена отдельная статья . Вообще, построение диаграммы рассеяния для целей регрессионного анализа де-факто является стандартом.

СОВЕТ : Подробнее о построении различных типов диаграмм см. статьи Основы построения диаграмм и Основные типы диаграмм .

Приведенная выше диаграмма рассеяния свидетельствует о возможной линейной взаимосвязи между Y от Х: очевидно, что точки данных в основном располагаются вдоль прямой линии.

Примечание : Наличие даже такой очевидной линейной взаимосвязи не может являться доказательством о наличии причинной взаимосвязи переменных. Наличие причинной взаимосвязи не может быть доказано на основании только анализа имеющихся измерений, а должно быть обосновано с помощью других исследований, например теоретических выкладок.

Примечание : Как известно, уравнение прямой линии имеет вид Y = m * X + k , где коэффициент m отвечает за наклон линии ( slope ), k – за сдвиг линии по вертикали ( intercept ), k равно значению Y при Х=0.

Предположим, что мы можем зафиксировать переменную Х ( рабочую температуру процесса ) при некотором значении Х i и произвести несколько наблюдений переменной Y ( прочность нити ). Очевидно, что при одном и том же значении Хi мы получим различные значения Y. Это обусловлено влиянием других факторов на Y. Например, локальные колебания давления в реакторе, концентрации раствора, наличие ошибок измерения и др. Предполагается, что воздействие этих факторов имеет случайную природу и для каждого измерения имеются одинаковые условия проведения эксперимента (т.е. другие факторы не изменяются).

Полученные значения Y, при заданном Хi, будут колебаться вокруг некого значения . При увеличении количества измерений, среднее этих измерений, будет стремиться к математическому ожиданию случайной величины Y (при Х i ) равному μy(i)=Е(Y i ).

Подобные рассуждения можно привести для любого значения Хi.

Чтобы двинуться дальше, воспользуемся материалом из раздела Проверка статистических гипотез . В статье о проверке гипотезы о среднем значении генеральной совокупности в качестве нулевой гипотезы предполагалось равенство неизвестного значения μ заданному μ0.

В нашем случае простой линейной регрессии в качестве нулевой гипотезы предположим, что между переменными μy(i) и Хi существует линейная взаимосвязь μ y(i) =α* Х i +β. Уравнение μ y(i) =α* Х i +β можно переписать в обобщенном виде (для всех Х и μ y ) как μ y =α* Х +β.

Для наглядности проведем прямую линию соединяющую все μy(i).

Данная линия называется регрессионной линией генеральной совокупности (population regression line), параметры которой ( наклон a и сдвиг β ) нам не известны (по аналогии с гипотезой о среднем значении генеральной совокупности , где нам было неизвестно истинное значение μ).

Теперь сделаем переход от нашего предположения, что μy=a* Х + β , к предсказанию значения случайной переменной Y в зависимости от значения контролируемой переменной Х. Для этого уравнение связи двух переменных запишем в виде Y=a*X+β+ε, где ε — случайная ошибка, которая отражает суммарный эффект влияния других факторов на Y (эти «другие» факторы не участвуют в нашей модели). Напомним, что т.к. переменная Х фиксирована, то ошибка ε определяется только свойствами переменной Y.

Уравнение Y=a*X+b+ε называют линейной регрессионной моделью . Часто Х еще называют независимой переменной (еще предиктором и регрессором , английский термин predictor , regressor ), а Y – зависимой (или объясняемой , response variable ). Так как регрессор у нас один, то такая модель называется простой линейной регрессионной моделью ( simple linear regression model ). α часто называют коэффициентом регрессии.

Предположения линейной регрессионной модели перечислены в следующем разделе.

Предположения линейной регрессионной модели

Чтобы модель линейной регрессии Yi=a*Xi+β+ε i была адекватной — требуется:

  • Ошибки ε i должны быть независимыми переменными;
  • При каждом значении Xi ошибки ε i должны быть иметь нормальное распределение (также предполагается равенство нулю математического ожидания, т.е. Е[ε i ]=0);
  • При каждом значении Xi ошибки ε i должны иметь равные дисперсии (обозначим ее σ 2 ).

Примечание : Последнее условие называется гомоскедастичность — стабильность, гомогенность дисперсии случайной ошибки e. Т.е. дисперсия ошибки σ 2 не должна зависеть от значения Xi.

Используя предположение о равенстве математического ожидания Е[ε i ]=0 покажем, что μy(i)=Е[Yi]:

Е[Yi]= Е[a*Xi+β+ε i ]= Е[a*Xi+β]+ Е[ε i ]= a*Xi+β= μy(i), т.к. a, Xi и β постоянные значения.

Дисперсия случайной переменной Y равна дисперсии ошибки ε, т.е. VAR(Y)= VAR(ε)=σ 2 . Это является следствием, что все значения переменной Х являются const, а VAR(ε)=VAR(ε i ).

Задачи регрессионного анализа

Для проверки гипотезы о линейной взаимосвязи переменной Y от X делают выборку из генеральной совокупности (этой совокупности соответствует регрессионная линия генеральной совокупности , т.е. μy=a* Х +β). Выборка будет состоять из n точек, т.е. из n пар значений .

На основании этой выборки мы можем вычислить оценки наклона a и сдвига β, которые обозначим соответственно a и b . Также часто используются обозначения â и b̂.

Далее, используя эти оценки, мы также можем проверить гипотезу: имеется ли линейная связь между X и Y статистически значимой?

Первая задача регрессионного анализа – оценка неизвестных параметров ( estimation of the unknown parameters ). Подробнее см. раздел Оценки неизвестных параметров модели .

Вторая задача регрессионного анализа – Проверка адекватности модели ( model adequacy checking ).

Примечание : Оценки параметров модели обычно вычисляются методом наименьших квадратов (МНК), которому посвящена отдельная статья .

Оценка неизвестных параметров линейной модели (используя функции MS EXCEL)

Неизвестные параметры простой линейной регрессионной модели Y=a*X+β+ε оценим с помощью метода наименьших квадратов (в статье про МНК подробно описано этот метод ).

Для вычисления параметров линейной модели методом МНК получены следующие выражения:

Таким образом, мы получим уравнение прямой линии Y= a *X+ b , которая наилучшим образом аппроксимирует имеющиеся данные.

Примечание : В статье про метод наименьших квадратов рассмотрены случаи аппроксимации линейной и квадратичной функцией , а также степенной , логарифмической и экспоненциальной функцией .

Оценку параметров в MS EXCEL можно выполнить различными способами:

Сначала рассмотрим функции НАКЛОН() , ОТРЕЗОК() и ЛИНЕЙН() .

Пусть значения Х и Y находятся соответственно в диапазонах C 23: C 83 и B 23: B 83 (см. файл примера внизу статьи).

Примечание : Значения двух переменных Х и Y можно сгенерировать, задав тренд и величину случайного разброса (см. статью Генерация данных для линейной регрессии в MS EXCEL ).

В MS EXCEL наклон прямой линии а ( оценку коэффициента регрессии ), можно найти по методу МНК с помощью функции НАКЛОН() , а сдвиг b ( оценку постоянного члена или константы регрессии ), с помощью функции ОТРЕЗОК() . В английской версии это функции SLOPE и INTERCEPT соответственно.

Аналогичный результат можно получить с помощью функции ЛИНЕЙН() , английская версия LINEST (см. статью об этой функции ).

Формула =ЛИНЕЙН(C23:C83;B23:B83) вернет наклон а . А формула = ИНДЕКС(ЛИНЕЙН(C23:C83;B23:B83);2) — сдвиг b . Здесь требуются пояснения.

Функция ЛИНЕЙН() имеет 4 аргумента и возвращает целый массив значений:

ЛИНЕЙН(известные_значения_y; [известные_значения_x]; [конст]; [статистика])

Если 4-й аргумент статистика имеет значение ЛОЖЬ или опущен, то функция ЛИНЕЙН() возвращает только оценки параметров модели: a и b .

Примечание : Остальные значения, возвращаемые функцией ЛИНЕЙН() , нам потребуются при вычислении стандартных ошибок и для проверки значимости регрессии . В этом случае аргумент статистика должен иметь значение ИСТИНА.

Чтобы вывести сразу обе оценки:

  • в одной строке необходимо выделить 2 ячейки,
  • ввести формулу в Строке формул
  • нажать CTRL+SHIFT+ENTER (см. статью про формулы массива ).

Если в Строке формул выделить формулу = ЛИНЕЙН(C23:C83;B23:B83) и нажать клавишу F9 , то мы увидим что-то типа <3,01279389265416;154,240057900613>. Это как раз значения a и b . Как видно, оба значения разделены точкой с запятой «;», что свидетельствует, что функция вернула значения «в нескольких ячейках одной строки».

Если требуется вывести параметры линии не в одной строке, а одном столбце (ячейки друг под другом), то используйте формулу = ТРАНСП(ЛИНЕЙН(C23:C83;B23:B83)) . При этом выделять нужно 2 ячейки в одном столбце. Если теперь выделить новую формулу и нажать клавишу F9, то мы увидим что 2 значения разделены двоеточием «:», что означает, что значения выведены в столбец (функция ТРАНСП() транспонировала строку в столбец ).

Чтобы разобраться в этом подробнее необходимо ознакомиться с формулами массива .

Чтобы не связываться с вводом формул массива , можно использовать функцию ИНДЕКС() . Формула = ИНДЕКС(ЛИНЕЙН(C23:C83;B23:B83);1) или просто ЛИНЕЙН(C23:C83;B23:B83) вернет параметр, отвечающий за наклон линии, т.е. а . Формула =ИНДЕКС(ЛИНЕЙН(C23:C83;B23:B83);2) вернет параметр b .

Оценка неизвестных параметров линейной модели (через статистики выборок)

Наклон линии, т.е. коэффициент а , можно также вычислить через коэффициент корреляции и стандартные отклонения выборок :

= КОРРЕЛ(B23:B83;C23:C83) *(СТАНДОТКЛОН.В(C23:C83)/ СТАНДОТКЛОН.В(B23:B83))

Вышеуказанная формула математически эквивалентна отношению ковариации выборок Х и Y и дисперсии выборки Х:

И, наконец, запишем еще одну формулу для нахождения сдвига b . Воспользуемся тем фактом, что линия регрессии проходит через точку средних значений переменных Х и Y.

Вычислив средние значения и подставив в формулу ранее найденный наклон а , получим сдвиг b .

Оценка неизвестных параметров линейной модели (матричная форма)

Также параметры линии регрессии можно найти в матричной форме (см. файл примера лист Матричная форма ).

В формуле символом β обозначен столбец с искомыми параметрами модели: β0 (сдвиг b ), β1 (наклон a ).

Матрица Х равна:

Матрица Х называется регрессионной матрицей или матрицей плана . Она состоит из 2-х столбцов и n строк, где n – количество точек данных. Первый столбец — столбец единиц, второй – значения переменной Х.

Матрица Х T – это транспонированная матрица Х . Она состоит соответственно из n столбцов и 2-х строк.

В формуле символом Y обозначен столбец значений переменной Y.

Чтобы перемножить матрицы используйте функцию МУМНОЖ() . Чтобы найти обратную матрицу используйте функцию МОБР() .

Пусть дан массив значений переменных Х и Y (n=10, т.е.10 точек).

Слева от него достроим столбец с 1 для матрицы Х.

и введя ее как формулу массива в 2 ячейки, получим оценку параметров модели.

Красота применения матричной формы полностью раскрывается в случае множественной регрессии .

Построение линии регрессии

Для отображения линии регрессии построим сначала диаграмму рассеяния , на которой отобразим все точки (см. начало статьи ).

Для построения прямой линии используйте вычисленные выше оценки параметров модели a и b (т.е. вычислите у по формуле y = a * x + b ) или функцию ТЕНДЕНЦИЯ() .

Формула = ТЕНДЕНЦИЯ($C$23:$C$83;$B$23:$B$83;B23) возвращает расчетные (прогнозные) значения ŷi для заданного значения Хi из столбца В2 .

Примечание : Линию регрессии можно также построить с помощью функции ПРЕДСКАЗ() . Эта функция возвращает прогнозные значения ŷi, но, в отличие от функции ТЕНДЕНЦИЯ() работает только в случае одного регрессора. Функция ТЕНДЕНЦИЯ() может быть использована и в случае множественной регрессии (в этом случае 3-й аргумент функции должен быть ссылкой на диапазон, содержащий все значения Хi для выбранного наблюдения i).

Как видно из диаграммы выше линия тренда и линия регрессии не обязательно совпадают: отклонения точек от линии тренда случайны, а МНК лишь подбирает линию наиболее точно аппроксимирующую случайные точки данных.

Линию регрессии можно построить и с помощью встроенных средств диаграммы, т.е. с помощью инструмента Линия тренда. Для этого выделите диаграмму, в меню выберите вкладку Макет , в группе Анализ нажмите Линия тренда , затем Линейное приближение. В диалоговом окне установите галочку Показывать уравнение на диаграмме (подробнее см. в статье про МНК ).

Построенная таким образом линия, разумеется, должна совпасть с ранее построенной нами линией регрессии, а параметры уравнения a и b должны совпасть с параметрами уравнения отображенными на диаграмме.

Примечание: Для того, чтобы вычисленные параметры уравнения a и b совпадали с параметрами уравнения на диаграмме, необходимо, чтобы тип у диаграммы был Точечная, а не График , т.к. тип диаграммы График не использует значения Х, а вместо значений Х используется последовательность 1; 2; 3; . Именно эти значения и берутся при расчете параметров линии тренда . Убедиться в этом можно если построить диаграмму График (см. файл примера ), а значения Хнач и Хшаг установить равным 1. Только в этом случае параметры уравнения на диаграмме совпадут с a и b .

Коэффициент детерминации R 2

Коэффициент детерминации R 2 показывает насколько полезна построенная нами линейная регрессионная модель .

Предположим, что у нас есть n значений переменной Y и мы хотим предсказать значение yi, но без использования значений переменной Х (т.е. без построения регрессионной модели ). Очевидно, что лучшей оценкой для yi будет среднее значение ȳ. Соответственно, ошибка предсказания будет равна (yi — ȳ).

Примечание : Далее будет использована терминология и обозначения дисперсионного анализа .

После построения регрессионной модели для предсказания значения yi мы будем использовать значение ŷi=a*xi+b. Ошибка предсказания теперь будет равна (yi — ŷi).

Теперь с помощью диаграммы сравним ошибки предсказания полученные без построения модели и с помощью модели.

Очевидно, что используя регрессионную модель мы уменьшили первоначальную (полную) ошибку (yi — ȳ) на значение (ŷi — ȳ) до величины (yi — ŷi).

(yi — ŷi) – это оставшаяся, необъясненная ошибка.

Очевидно, что все три ошибки связаны выражением:

(yi — ȳ)= (ŷi — ȳ) + (yi — ŷi)

Можно показать, что в общем виде справедливо следующее выражение:

или в других, общепринятых в зарубежной литературе, обозначениях:

Total Sum of Squares = Regression Sum of Squares + Error Sum of Squares

Примечание : SS — Sum of Squares — Сумма Квадратов.

Как видно из формулы величины SST, SSR, SSE имеют размерность дисперсии (вариации) и соответственно описывают разброс (изменчивость): Общую изменчивость (Total variation), Изменчивость объясненную моделью (Explained variation) и Необъясненную изменчивость (Unexplained variation).

По определению коэффициент детерминации R 2 равен:

R 2 = Изменчивость объясненная моделью / Общая изменчивость.

Этот показатель равен квадрату коэффициента корреляции и в MS EXCEL его можно вычислить с помощью функции КВПИРСОН() или ЛИНЕЙН() :

R 2 принимает значения от 0 до 1 (1 соответствует идеальной линейной зависимости Y от Х). Однако, на практике малые значения R2 вовсе не обязательно указывают, что переменную Х нельзя использовать для прогнозирования переменной Y. Малые значения R2 могут указывать на нелинейность связи или на то, что поведение переменной Y объясняется не только Х, но и другими факторами.

Стандартная ошибка регрессии

Стандартная ошибка регрессии ( Standard Error of a regression ) показывает насколько велика ошибка предсказания значений переменной Y на основании значений Х. Отдельные значения Yi мы можем предсказывать лишь с точностью +/- несколько значений (обычно 2-3, в зависимости от формы распределения ошибки ε).

Теперь вспомним уравнение линейной регрессионной модели Y=a*X+β+ε. Ошибка ε имеет случайную природу, т.е. является случайной величиной и поэтому имеет свою функцию распределения со средним значением μ и дисперсией σ 2 .

Оценив значение дисперсии σ 2 и вычислив из нее квадратный корень – получим Стандартную ошибку регрессии. Чем точки наблюдений на диаграмме рассеяния ближе находятся к прямой линии, тем меньше Стандартная ошибка.

Примечание : Вспомним , что при построении модели предполагается, что среднее значение ошибки ε равно 0, т.е. E[ε]=0.

Оценим дисперсию σ 2 . Помимо вычисления Стандартной ошибки регрессии эта оценка нам потребуется в дальнейшем еще и при построении доверительных интервалов для оценки параметров регрессии a и b .

Для оценки дисперсии ошибки ε используем остатки регрессии — разности между имеющимися значениями yi и значениями, предсказанными регрессионной моделью ŷ. Чем лучше регрессионная модель согласуется с данными (точки располагается близко к прямой линии), тем меньше величина остатков.

Для оценки дисперсии σ 2 используют следующую формулу:

где SSE – сумма квадратов значений ошибок модели ε i =yi — ŷi ( Sum of Squared Errors ).

SSE часто обозначают и как SSres – сумма квадратов остатков ( Sum of Squared residuals ).

Оценка дисперсии s 2 также имеет общепринятое обозначение MSE (Mean Square of Errors), т.е. среднее квадратов ошибок или MSRES (Mean Square of Residuals), т.е. среднее квадратов остатков . Хотя правильнее говорить сумме квадратов остатков, т.к. ошибка чаще ассоциируется с ошибкой модели ε, которая является непрерывной случайной величиной. Но, здесь мы будем использовать термины SSE и MSE, предполагая, что речь идет об остатках.

Примечание : Напомним, что когда мы использовали МНК для нахождения параметров модели, то критерием оптимизации была минимизация именно SSE (SSres). Это выражение представляет собой сумму квадратов расстояний между наблюденными значениями yi и предсказанными моделью значениями ŷi, которые лежат на линии регрессии.

Математическое ожидание случайной величины MSE равно дисперсии ошибки ε, т.е. σ 2 .

Чтобы понять почему SSE выбрана в качестве основы для оценки дисперсии ошибки ε, вспомним, что σ 2 является также дисперсией случайной величины Y (относительно среднего значения μy, при заданном значении Хi). А т.к. оценкой μy является значение ŷi = a * Хi + b (значение уравнения регрессии при Х= Хi), то логично использовать именно SSE в качестве основы для оценки дисперсии σ 2 . Затем SSE усредняется на количество точек данных n за вычетом числа 2. Величина n-2 – это количество степеней свободы ( df degrees of freedom ), т.е. число параметров системы, которые могут изменяться независимо (вспомним, что у нас в этом примере есть n независимых наблюдений переменной Y). В случае простой линейной регрессии число степеней свободы равно n-2, т.к. при построении линии регрессии было оценено 2 параметра модели (на это было «потрачено» 2 степени свободы ).

Итак, как сказано было выше, квадратный корень из s 2 имеет специальное название Стандартная ошибка регрессии ( Standard Error of a regression ) и обозначается SEy. SEy показывает насколько велика ошибка предсказания. Отдельные значения Y мы можем предсказывать с точностью +/- несколько значений SEy (см. этот раздел ). Если ошибки предсказания ε имеют нормальное распределение , то примерно 2/3 всех предсказанных значений будут на расстоянии не больше SEy от линии регрессии . SEy имеет размерность переменной Y и откладывается по вертикали. Часто на диаграмме рассеяния строят границы предсказания соответствующие +/- 2 SEy (т.е. 95% точек данных будут располагаться в пределах этих границ).

В MS EXCEL стандартную ошибку SEy можно вычислить непосредственно по формуле:

= КОРЕНЬ(СУММКВРАЗН(C23:C83; ТЕНДЕНЦИЯ(C23:C83;B23:B83;B23:B83)) /( СЧЁТ(B23:B83) -2))

или с помощью функции ЛИНЕЙН() :

Примечание : Подробнее о функции ЛИНЕЙН() см. эту статью .

Стандартные ошибки и доверительные интервалы для наклона и сдвига

В разделе Оценка неизвестных параметров линейной модели мы получили точечные оценки наклона а и сдвига b . Так как эти оценки получены на основе случайных величин (значений переменных Х и Y), то эти оценки сами являются случайными величинами и соответственно имеют функцию распределения со средним значением и дисперсией . Но, чтобы перейти от точечных оценок к интервальным , необходимо вычислить соответствующие стандартные ошибки (т.е. стандартные отклонения ).

Стандартная ошибка коэффициента регрессии a вычисляется на основании стандартной ошибки регрессии по следующей формуле:

где Sx – стандартное отклонение величины х, вычисляемое по формуле:

где Sey – стандартная ошибка регрессии, т.е. ошибка предсказания значения переменой Y ( см. выше ).

В MS EXCEL стандартную ошибку коэффициента регрессии Se можно вычислить впрямую по вышеуказанной формуле:

= КОРЕНЬ(СУММКВРАЗН(C23:C83; ТЕНДЕНЦИЯ(C23:C83;B23:B83;B23:B83)) /( СЧЁТ(B23:B83) -2))/ СТАНДОТКЛОН.В(B23:B83) /КОРЕНЬ(СЧЁТ(B23:B83) -1)

или с помощью функции ЛИНЕЙН() :

Формулы приведены в файле примера на листе Линейный в разделе Регрессионная статистика .

Примечание : Подробнее о функции ЛИНЕЙН() см. эту статью .

При построении двухстороннего доверительного интервала для коэффициента регрессии его границы определяются следующим образом:

где — квантиль распределения Стьюдента с n-2 степенями свободы. Величина а с «крышкой» является другим обозначением наклона а .

Например для уровня значимости альфа=0,05, можно вычислить с помощью формулы =СТЬЮДЕНТ.ОБР.2Х(0,05;n-2)

Вышеуказанная формула следует из того факта, что если ошибки регрессии распределены нормально и независимо, то выборочное распределение случайной величины

является t-распределением Стьюдента с n-2 степенью свободы (то же справедливо и для наклона b ).

Примечание : Подробнее о построении доверительных интервалов в MS EXCEL можно прочитать в этой статье Доверительные интервалы в MS EXCEL .

В результате получим, что найденный доверительный интервал с вероятностью 95% (1-0,05) накроет истинное значение коэффициента регрессии. Здесь мы считаем, что коэффициент регрессии a имеет распределение Стьюдента с n-2 степенями свободы (n – количество наблюдений, т.е. пар Х и Y).

Примечание : Подробнее о построении доверительных интервалов с использованием t-распределения см. статью про построение доверительных интервалов для среднего .

Стандартная ошибка сдвига b вычисляется по следующей формуле:

В MS EXCEL стандартную ошибку сдвига Seb можно вычислить с помощью функции ЛИНЕЙН() :

При построении двухстороннего доверительного интервала для сдвига его границы определяются аналогичным образом как для наклона : b +/- t*Seb.

Проверка значимости взаимосвязи переменных

Когда мы строим модель Y=αX+β+ε мы предполагаем, что между Y и X существует линейная взаимосвязь. Однако, как это иногда бывает в статистике, можно вычислять параметры связи даже тогда, когда в действительности она не существует, и обусловлена лишь случайностью.

Единственный вариант, когда Y не зависит X (в рамках модели Y=αX+β+ε), возможен, когда коэффициент регрессии a равен 0.

Чтобы убедиться, что вычисленная нами оценка наклона прямой линии не обусловлена лишь случайностью (не случайно отлична от 0), используют проверку гипотез . В качестве нулевой гипотезы Н 0 принимают, что связи нет, т.е. a=0. В качестве альтернативной гипотезы Н 1 принимают, что a <>0.

Ниже на рисунках показаны 2 ситуации, когда нулевую гипотезу Н 0 не удается отвергнуть.

На левой картинке отсутствует любая зависимость между переменными, на правой – связь между ними нелинейная, но при этом коэффициент линейной корреляции равен 0.

Ниже — 2 ситуации, когда нулевая гипотеза Н 0 отвергается.

На левой картинке очевидна линейная зависимость, на правой — зависимость нелинейная, но коэффициент корреляции не равен 0 (метод МНК вычисляет показатели наклона и сдвига просто на основании значений выборки).

Для проверки гипотезы нам потребуется:

  • Установить уровень значимости , пусть альфа=0,05;
  • Рассчитать с помощью функции ЛИНЕЙН() стандартное отклонение Se для коэффициента регрессии (см. предыдущий раздел );
  • Рассчитать число степеней свободы: DF=n-2 или по формуле = ИНДЕКС(ЛИНЕЙН(C24:C84;B24:B84;;ИСТИНА);4;2)
  • Вычислить значение тестовой статистики t 0 =a/S e , которая имеет распределение Стьюдента с числом степеней свободы DF=n-2;
  • Сравнить значение тестовой статистики |t0| с пороговым значением t альфа ,n-2. Если значение тестовой статистики больше порогового значения, то нулевая гипотеза отвергается ( наклон не может быть объяснен лишь случайностью при заданном уровне альфа) либо
  • вычислить p-значение и сравнить его с уровнем значимости .

В файле примера приведен пример проверки гипотезы:

Изменяя наклон тренда k (ячейка В8 ) можно убедиться, что при малых углах тренда (например, 0,05) тест часто показывает, что связь между переменными случайна. При больших углах (k>1), тест практически всегда подтверждает значимость линейной связи между переменными.

Примечание : Проверка значимости взаимосвязи эквивалентна проверке статистической значимости коэффициента корреляции . В файле примера показана эквивалентность обоих подходов. Также проверку значимости можно провести с помощью процедуры F-тест .

Доверительные интервалы для нового наблюдения Y и среднего значения

Вычислив параметры простой линейной регрессионной модели Y=aX+β+ε мы получили точечную оценку значения нового наблюдения Y при заданном значении Хi, а именно: Ŷ= a * Хi + b

Ŷ также является точечной оценкой для среднего значения Yi при заданном Хi. Но, при построении доверительных интервалов используются различные стандартные ошибки .

Стандартная ошибка нового наблюдения Y при заданном Хi учитывает 2 источника неопределенности:

  • неопределенность связанную со случайностью оценок параметров модели a и b ;
  • случайность ошибки модели ε.

Учет этих неопределенностей приводит к стандартной ошибке S(Y|Xi), которая рассчитывается с учетом известного значения Xi.

где SS xx – сумма квадратов отклонений от среднего значений переменной Х:

В MS EXCEL 2010 нет функции, которая бы рассчитывала эту стандартную ошибку , поэтому ее необходимо рассчитывать по вышеуказанным формулам.

Доверительный интервал или Интервал предсказания для нового наблюдения (Prediction Interval for a New Observation) построим по схеме показанной в разделе Проверка значимости взаимосвязи переменных (см. файл примера лист Интервалы ). Т.к. границы интервала зависят от значения Хi (точнее от расстояния Хi до среднего значения Х ср ), то интервал будет постепенно расширяться при удалении от Х ср .

Границы доверительного интервала для нового наблюдения рассчитываются по формуле:

Аналогичным образом построим доверительный интервал для среднего значения Y при заданном Хi (Confidence Interval for the Mean of Y). В этом случае доверительный интервал будет уже, т.к. средние значения имеют меньшую изменчивость по сравнению с отдельными наблюдениями ( средние значения, в рамках нашей линейной модели Y=aX+β+ε, не включают ошибку ε).

Стандартная ошибка S(Yср|Xi) вычисляется по практически аналогичным формулам как и стандартная ошибка для нового наблюдения:

Как видно из формул, стандартная ошибка S(Yср|Xi) меньше стандартной ошибки S(Y|Xi) для индивидуального значения .

Границы доверительного интервала для среднего значения рассчитываются по формуле:

Проверка адекватности линейной регрессионной модели

Модель адекватна, когда все предположения, лежащие в ее основе, выполнены (см. раздел Предположения линейной регрессионной модели ).

Проверка адекватности модели в основном основана на исследовании остатков модели (model residuals), т.е. значений ei=yi – ŷi для каждого Хi. В рамках простой линейной модели n остатков имеют только n-2 связанных с ними степеней свободы . Следовательно, хотя, остатки не являются независимыми величинами, но при достаточно большом n это не оказывает какого-либо влияния на проверку адекватности модели.

Чтобы проверить предположение о нормальности распределения ошибок строят график проверки на нормальность (Normal probability Plot).

В файле примера на листе Адекватность построен график проверки на нормальность . В случае нормального распределения значения остатков должны быть близки к прямой линии.

Так как значения переменной Y мы генерировали с помощью тренда , вокруг которого значения имели нормальный разброс, то ожидать сюрпризов не приходится – значения остатков располагаются вблизи прямой.

Также при проверке модели на адекватность часто строят график зависимости остатков от предсказанных значений Y. Если точки не демонстрируют характерных, так называемых «паттернов» (шаблонов) типа вор о нок или другого неравномерного распределения, в зависимости от значений Y, то у нас нет очевидных доказательств неадекватности модели.

В нашем случае точки располагаются примерно равномерно.

Часто при проверке адекватности модели вместо остатков используют нормированные остатки. Как показано в разделе Стандартная ошибка регрессии оценкой стандартного отклонения ошибок является величина SEy равная квадратному корню из величины MSE. Поэтому логично нормирование остатков проводить именно на эту величину.

SEy можно вычислить с помощью функции ЛИНЕЙН() :

Иногда нормирование остатков производится на величину стандартного отклонения остатков (это мы увидим в статье об инструменте Регрессия , доступного в надстройке MS EXCEL Пакет анализа ), т.е. по формуле:

Вышеуказанное равенство приблизительное, т.к. среднее значение остатков близко, но не обязательно точно равно 0.

Что такое регрессионный анализ?

Регрессионный анализ — это набор статистических методов оценки отношений между переменными. Его можно использовать для оценки степени взаимосвязи между переменными и для моделирования будущей зависимости. По сути, регрессионные методы показывают, как по изменениям «независимых переменных» можно зафиксировать изменение «зависимой переменной».

Зависимую переменную в бизнесе называют предиктором (характеристика, за изменением которой наблюдают). Это может быть уровень продаж, риски, ценообразование, производительность и так далее. Независимые переменные — те, которые могут объяснять поведение выше приведенных факторов (время года, покупательная способность населения, место продаж и многое другое).Регрессионный анализ включает несколько моделей. Наиболее распространенные из них: линейная, мультилинейная (или множественная линейная) и нелинейная.

Как видно из названий, модели отличаются типом зависимости переменных: линейная описывается линейной функцией; мультилинейная также представляет линейную функцию, но в нее входит больше параметров (независимых переменных); нелинейная модель — та, в которой экспериментальные данные характеризуются функцией, являющейся нелинейной (показательной, логарифмической, тригонометрической и так далее).

Чаще всего используются простые линейные и мультилинейные модели.

Регрессионный анализ предлагает множество приложений в различных дисциплинах, включая финансы.

Рассмотрим поподробнее принципы построения и адаптации результатов метода.

Линейный регрессионный анализ основан на шести фундаментальных предположениях:

  • Переменные показывают линейную зависимость;
  • Независимая переменная не случайна;
  • Значение невязки (ошибки) равно нулю;
  • Значение невязки постоянно для всех наблюдений;
  • Значение невязки не коррелирует по всем наблюдениям;
  • Остаточные значения подчиняются нормальному распределению.

Простая линейная модель выражается с помощью следующего уравнения:

Основы линейной регрессии

Что такое регрессия?

Разместим точки на двумерном графике рассеяния и скажем, что мы имеем линейное соотношение, если данные аппроксимируются прямой линией.

Если мы полагаем, что y зависит от x, причём изменения в y вызываются именно изменениями в x, мы можем определить линию регрессии (регрессия y на x), которая лучше всего описывает прямолинейное соотношение между этими двумя переменными.

Статистическое использование слова «регрессия» исходит из явления, известного как регрессия к среднему, приписываемого сэру Френсису Гальтону (1889).

Он показал, что, хотя высокие отцы имеют тенденцию иметь высоких сыновей, средний рост сыновей меньше, чем у их высоких отцов. Средний рост сыновей «регрессировал» и «двигался вспять» к среднему росту всех отцов в популяции. Таким образом, в среднем высокие отцы имеют более низких (но всё-таки высоких) сыновей, а низкие отцы имеют сыновей более высоких (но всё-таки довольно низких).

Линия регрессии

Математическое уравнение, которое оценивает линию простой (парной) линейной регрессии:

x называется независимой переменной или предиктором.

Y – зависимая переменная или переменная отклика. Это значение, которое мы ожидаем для y (в среднем), если мы знаем величину x, т.е. это «предсказанное значение y»

  • a – свободный член (пересечение) линии оценки; это значение Y, когда x=0 (Рис.1).
  • b – угловой коэффициент или градиент оценённой линии; она представляет собой величину, на которую Y увеличивается в среднем, если мы увеличиваем x на одну единицу.
  • a и b называют коэффициентами регрессии оценённой линии, хотя этот термин часто используют только для b.

Парную линейную регрессию можно расширить, включив в нее более одной независимой переменной; в этом случае она известна как множественная регрессия.

Рис.1. Линия линейной регрессии, показывающая пересечение a и угловой коэффициент b (величину возрастания Y при увеличении x на одну единицу)

Метод наименьших квадратов

Мы выполняем регрессионный анализ, используя выборку наблюдений, где a и b – выборочные оценки истинных (генеральных) параметров, α и β , которые определяют линию линейной регрессии в популяции (генеральной совокупности).

Наиболее простым методом определения коэффициентов a и b является метод наименьших квадратов (МНК).

Подгонка оценивается, рассматривая остатки (вертикальное расстояние каждой точки от линии, например, остаток = наблюдаемому y – предсказанный y, Рис. 2).

Линию лучшей подгонки выбирают так, чтобы сумма квадратов остатков была минимальной.

Рис. 2. Линия линейной регрессии с изображенными остатками (вертикальные пунктирные линии) для каждой точки.

Предположения линейной регрессии

Итак, для каждой наблюдаемой величины остаток равен разнице и соответствующего предсказанного Каждый остаток может быть положительным или отрицательным.

Можно использовать остатки для проверки следующих предположений, лежащих в основе линейной регрессии:

  • Остатки нормально распределены с нулевым средним значением;

Если допущения линейности, нормальности и/или постоянной дисперсии сомнительны, мы можем преобразовать или и рассчитать новую линию регрессии, для которой эти допущения удовлетворяются (например, использовать логарифмическое преобразование или др.).

Аномальные значения (выбросы) и точки влияния

«Влиятельное» наблюдение, если оно опущено, изменяет одну или больше оценок параметров модели (т.е. угловой коэффициент или свободный член).

Выброс (наблюдение, которое противоречит большинству значений в наборе данных) может быть «влиятельным» наблюдением и может хорошо обнаруживаться визуально, при осмотре двумерной диаграммы рассеяния или графика остатков.

И для выбросов, и для «влиятельных» наблюдений (точек) используют модели, как с их включением, так и без них, обращают внимание на изменение оценки (коэффициентов регрессии).

При проведении анализа не стоит отбрасывать выбросы или точки влияния автоматически, поскольку простое игнорирование может повлиять на полученные результаты. Всегда изучайте причины появления этих выбросов и анализируйте их.

Гипотеза линейной регрессии

При построении линейной регрессии проверяется нулевая гипотеза о том, что генеральный угловой коэффициент линии регрессии β равен нулю.

Если угловой коэффициент линии равен нулю, между и нет линейного соотношения: изменение не влияет на

Для тестирования нулевой гипотезы о том, что истинный угловой коэффициент равен нулю можно воспользоваться следующим алгоритмом:

Вычислить статистику критерия, равную отношению , которая подчиняется распределению с степенями свободы, где стандартная ошибка коэффициента

,

— оценка дисперсии остатков.

Обычно если достигнутый уровень значимости нулевая гипотеза отклоняется.

Можно рассчитать 95% доверительный интервал для генерального углового коэффициента :

где процентная точка распределения со степенями свободы что дает вероятность двустороннего критерия

Это тот интервал, который содержит генеральный угловой коэффициент с вероятностью 95%.

Для больших выборок, скажем, мы можем аппроксимировать значением 1,96 (то есть статистика критерия будет стремиться к нормальному распределению)

Оценка качества линейной регрессии: коэффициент детерминации R 2

Из-за линейного соотношения и мы ожидаем, что изменяется, по мере того как изменяется , и называем это вариацией, которая обусловлена или объясняется регрессией. Остаточная вариация должна быть как можно меньше.

Если это так, то большая часть вариации будет объясняться регрессией, а точки будут лежать близко к линии регрессии, т.е. линия хорошо соответствует данным.

Долю общей дисперсии , которая объясняется регрессией называют коэффициентом детерминации, обычно выражают через процентное соотношение и обозначают R 2 (в парной линейной регрессии это величина r 2 , квадрат коэффициента корреляции), позволяет субъективно оценить качество уравнения регрессии.

Разность представляет собой процент дисперсии который нельзя объяснить регрессией.

Нет формального теста для оценки мы вынуждены положиться на субъективное суждение, чтобы определить качество подгонки линии регрессии.

Применение линии регрессии для прогноза

Можно применять регрессионную линию для прогнозирования значения по значению в пределе наблюдаемого диапазона (никогда не экстраполируйте вне этих пределов).

Мы предсказываем среднюю величину для наблюдаемых, которые имеют определенное значение путем подстановки этого значения в уравнение линии регрессии.

Итак, если прогнозируем как Используем эту предсказанную величину и ее стандартную ошибку, чтобы оценить доверительный интервал для истинной средней величины в популяции.

Повторение этой процедуры для различных величин позволяет построить доверительные границы для этой линии. Это полоса или область, которая содержит истинную линию, например, с 95% доверительной вероятностью.

Подобным образом можно рассчитать более широкую область, внутри которой, как мы ожидаем, лежит наибольшее число (обычно 95%) наблюдений.

Простые регрессионные планы

Простые регрессионные планы содержат один непрерывный предиктор. Если существует 3 наблюдения со значениями предиктора P , например, 7, 4 и 9, а план включает эффект первого порядка P , то матрица плана X будет иметь вид

а регрессионное уравнение с использованием P для X1 выглядит как

Если простой регрессионный план содержит эффект высшего порядка для P , например квадратичный эффект, то значения в столбце X1 в матрице плана будут возведены во вторую степень:

а уравнение примет вид

Y = b 0 + b 1 P 2

Сигма -ограниченные и сверхпараметризованные методы кодирования не применяются по отношению к простым регрессионным планам и другим планам, содержащим только непрерывные предикторы (поскольку, просто не существует категориальных предикторов). Независимо от выбранного метода кодирования, значения непрерывных переменных увеличиваются в соответствующей степени и используются как значения для переменных X . При этом перекодировка не выполняется. Кроме того, при описании регрессионных планов можно опустить рассмотрение матрицы плана X , а работать только с регрессионным уравнением.

Пример: простой регрессионный анализ

Этот пример использует данные, представленные в таблице:

Рис. 3. Таблица исходных данных.

Данные составлены на основе сравнения переписей 1960 и 1970 в произвольно выбранных 30 округах. Названия округов представлены в виде имен наблюдений. Информация относительно каждой переменной представлена ниже:

Рис. 4. Таблица спецификаций переменных.

Задача исследования

Для этого примера будут анализироваться корреляция уровня бедности и степень, которая предсказывает процент семей, которые находятся за чертой бедности. Следовательно мы будем трактовать переменную 3 ( Pt_Poor ) как зависимую переменную.

Можно выдвинуть гипотезу: изменение численности населения и процент семей, которые находятся за чертой бедности, связаны между собой. Кажется разумным ожидать, что бедность ведет к оттоку населения, следовательно, здесь будет отрицательная корреляция между процентом людей за чертой бедности и изменением численности населения. Следовательно мы будем трактовать переменную 1 ( Pop_Chng ) как переменную-предиктор.

Просмотр результатов

Коэффициенты регрессии

Рис. 5. Коэффициенты регрессии Pt_Poor на Pop_Chng.

На пересечении строки Pop_Chng и столбца Парам. не стандартизованный коэффициент для регрессии Pt_Poor на Pop_Chng равен -0.40374 . Это означает, что для каждого уменьшения численности населения на единицу, имеется увеличение уровня бедности на .40374. Верхний и нижний (по умолчанию) 95% доверительные пределы для этого не стандартизованного коэффициента не включают ноль, так что коэффициент регрессии значим на уровне p . Обратите внимание на не стандартизованный коэффициент, который также является коэффициентом корреляции Пирсона для простых регрессионных планов, равен -.65, который означает, что для каждого уменьшения стандартного отклонения численности населения происходит увеличение стандартного отклонения уровня бедности на .65.

Распределение переменных

Коэффициенты корреляции могут стать существенно завышены или занижены, если в данных присутствуют большие выбросы. Изучим распределение зависимой переменной Pt_Poor по округам. Для этого построим гистограмму переменной Pt_Poor .

Рис. 6. Гистограмма переменной Pt_Poor.

Как вы можете заметить, распределение этой переменной заметно отличается от нормального распределения. Тем не менее, хотя даже два округа (два правых столбца) имеют высокий процент семей, которые находятся за чертой бедности, чем ожидалось в случае нормального распределения, кажется, что они находятся «внутри диапазона.»

Рис. 7. Гистограмма переменной Pt_Poor.

Это суждение в некоторой степени субъективно. Эмпирическое правило гласит, что выбросы необходимо учитывать, если наблюдение (или наблюдения) не попадают в интервал (среднее ± 3 умноженное на стандартное отклонение). В этом случае стоит повторить анализ с выбросами и без, чтобы убедиться, что они не оказывают серьезного эффекта на корреляцию между членами совокупности.

Диаграмма рассеяния

Если одна из гипотез априори о взаимосвязи между заданными переменными, то ее полезно проверить на графике соответствующей диаграммы рассеяния.

Рис. 8. Диаграмма рассеяния.

Диаграмма рассеяния показывает явную отрицательную корреляцию ( -.65 ) между двумя переменными. На ней также показан 95% доверительный интервал для линии регрессии, т.е., с 95% вероятностью линия регрессии проходит между двумя пунктирными кривыми.

Критерии значимости

Рис. 9. Таблица, содержащая критерии значимости.

Критерий для коэффициента регрессии Pop_Chng подтверждает, что Pop_Chng сильно связано с Pt_Poor , p .

На этом примере было показано, как проанализировать простой регрессионный план. Была также представлена интерпретация не стандартизованных и стандартизованных коэффициентов регрессии. Обсуждена важность изучения распределения откликов зависимой переменной, продемонстрирована техника определения направления и силы взаимосвязи между предиктором и зависимой переменной.

источники:

http://excel2.ru/articles/prostaya-lineynaya-regressiya-v-ms-excel

http://vc.ru/u/425321-sf-education/224225-chto-takoe-regressionnyy-analiz

http://statistica.ru/theory/osnovy-lineynoy-regressii/

Основы линейной регрессии

Что такое регрессия? 

Линия регрессии 

Метод наименьших квадратов

Предположения линейной регрессии

Аномальные значения (выбросы) и точки влияния

Гипотеза линейной регрессии

Оценка качества линейной регрессии: коэффициент детерминации R2

Применение линии регрессии для прогноза

Простые регрессионные планы

Пример: простой регрессионный анализ

Рассмотрим две непрерывные переменные x=(x1, x2, .., xn), y=(y1, y2, …, yn).

Разместим точки на двумерном графике рассеяния и скажем, что мы имеем линейное соотношение, если данные аппроксимируются  прямой линией.

Если мы полагаем, что y зависит от x, причём изменения в y вызываются именно изменениями в x, мы можем определить линию регрессии (регрессия y на x), которая лучше всего описывает прямолинейное соотношение между этими двумя переменными.

Статистическое использование слова «регрессия» исходит из явления, известного как регрессия к среднему, приписываемого сэру Френсису Гальтону (1889).

Он показал, что, хотя высокие отцы имеют тенденцию иметь высоких сыновей, средний рост сыновей меньше, чем у их высоких отцов. Средний рост сыновей «регрессировал» и «двигался вспять» к среднему росту всех отцов в популяции. Таким образом, в среднем высокие отцы имеют более низких (но всё-таки высоких) сыновей, а низкие отцы имеют сыновей более высоких (но всё-таки довольно низких).

Линия регрессии

Математическое уравнение, которое оценивает линию простой (парной) линейной регрессии:

Y=a+bx.

x называется независимой переменной или предиктором.

Y – зависимая переменная или переменная отклика. Это значение, которое мы ожидаем для y (в среднем), если мы знаем величину x, т.е. это «предсказанное значение y»

  • a – свободный член (пересечение) линии оценки; это значение Y, когда x=0 (Рис.1).
  • b – угловой коэффициент или градиент оценённой линии; она представляет собой величину, на которую Y увеличивается в среднем, если мы увеличиваем x на одну единицу.
  • a и b называют коэффициентами регрессии оценённой линии, хотя этот термин часто используют только для b.

Парную линейную регрессию можно расширить, включив в нее более одной независимой переменной; в этом случае она известна как множественная регрессия.

Рис.1. Линия линейной регрессии, показывающая пересечение a и угловой коэффициент b (величину возрастания Y при увеличении x на одну единицу)

Метод наименьших квадратов

Мы выполняем регрессионный анализ, используя выборку наблюдений, где a и b – выборочные оценки истинных (генеральных) параметров, α и β , которые определяют линию линейной регрессии в популяции (генеральной совокупности).

Наиболее простым методом определения коэффициентов a и b является метод наименьших квадратов (МНК).

Подгонка оценивается, рассматривая остатки (вертикальное расстояние каждой точки от линии, например, остаток = наблюдаемому y – предсказанный y, Рис. 2).

Линию лучшей подгонки выбирают так, чтобы сумма квадратов остатков была минимальной.

Рис. 2. Линия линейной регрессии с изображенными остатками (вертикальные пунктирные линии) для каждой точки.

Предположения линейной регрессии

Итак, для каждой наблюдаемой величины остаток равен разнице и соответствующего предсказанного Каждый остаток может быть положительным или отрицательным.

Можно использовать остатки для проверки следующих предположений, лежащих в основе линейной регрессии:

  • Остатки нормально распределены с нулевым средним значением;

Если допущения линейности, нормальности и/или постоянной дисперсии сомнительны, мы можем преобразовать или и рассчитать новую линию регрессии, для которой эти допущения удовлетворяются (например, использовать логарифмическое преобразование или др.).

Аномальные значения (выбросы) и точки влияния

«Влиятельное» наблюдение, если оно опущено, изменяет одну или больше оценок параметров модели (т.е. угловой коэффициент или свободный член). 

Выброс (наблюдение, которое противоречит большинству значений в наборе данных) может быть «влиятельным» наблюдением и может хорошо обнаруживаться визуально, при осмотре двумерной диаграммы рассеяния или графика остатков.

И для выбросов, и для «влиятельных» наблюдений (точек) используют модели, как с их включением, так и без них, обращают внимание на изменение оценки (коэффициентов регрессии).

При проведении анализа не стоит отбрасывать выбросы или точки влияния автоматически, поскольку простое игнорирование может повлиять на полученные результаты. Всегда изучайте причины появления этих выбросов и анализируйте их.

Гипотеза линейной регрессии

При построении линейной регрессии проверяется нулевая гипотеза о том, что генеральный угловой коэффициент линии регрессии β равен нулю.

Если угловой коэффициент линии равен нулю, между и нет линейного соотношения: изменение не влияет на

Для тестирования нулевой гипотезы о том, что истинный угловой коэффициент равен нулю можно воспользоваться следующим алгоритмом:

Вычислить статистику критерия, равную отношению , которая подчиняется распределению с степенями свободы, где стандартная ошибка коэффициента

,

— оценка дисперсии остатков.

Обычно если достигнутый уровень значимости нулевая гипотеза отклоняется.

Можно рассчитать 95% доверительный интервал для генерального углового коэффициента :

где процентная точка распределения со степенями свободы что дает вероятность двустороннего критерия

Это тот интервал, который содержит генеральный угловой коэффициент с вероятностью 95%.

Для больших выборок, скажем, мы можем аппроксимировать значением 1,96 (то есть статистика критерия будет стремиться к нормальному распределению)

Оценка качества линейной регрессии: коэффициент детерминации R2

Из-за линейного соотношения  и мы ожидаем, что  изменяется, по мере того как изменяется , и называем это вариацией, которая обусловлена или объясняется регрессией. Остаточная вариация должна быть как можно меньше.

Если это так, то большая часть вариации  будет объясняться регрессией, а точки будут лежать близко к линии регрессии, т.е. линия хорошо соответствует данным.

Долю общей дисперсии , которая объясняется регрессией называют коэффициентом детерминации, обычно выражают через процентное соотношение и обозначают R2 (в парной линейной регрессии это величина r2, квадрат коэффициента корреляции), позволяет субъективно оценить качество уравнения регрессии.

Разность представляет собой процент дисперсии который нельзя объяснить регрессией.

Нет формального теста для оценки мы вынуждены положиться на субъективное суждение, чтобы определить качество подгонки линии регрессии.

Применение линии регрессии для прогноза

Можно применять регрессионную линию для прогнозирования значения по значению в пределе наблюдаемого диапазона (никогда не экстраполируйте вне этих пределов).

Мы предсказываем среднюю величину для наблюдаемых, которые имеют определенное значение путем подстановки этого значения в уравнение линии регрессии.

Итак, если прогнозируем как Используем эту предсказанную величину и ее стандартную ошибку, чтобы оценить доверительный интервал для истинной средней величины в популяции.

Повторение этой процедуры для различных величин позволяет построить доверительные границы для этой линии. Это полоса или область, которая содержит истинную линию, например, с 95% доверительной вероятностью.

Подобным образом можно рассчитать более широкую область, внутри которой, как мы ожидаем, лежит наибольшее число (обычно 95%) наблюдений.

Простые регрессионные планы

Простые регрессионные планы содержат один непрерывный предиктор. Если существует 3 наблюдения со значениями предиктора P, например, 7, 4 и 9, а план включает эффект первого порядка P, то матрица плана X будет иметь вид

а регрессионное уравнение с использованием P для X1 выглядит как

Y = b0 + b1P

Если простой регрессионный план содержит эффект высшего порядка для P, например квадратичный эффект, то значения в столбце X1 в матрице плана будут возведены во вторую степень:

а уравнение примет вид

Y = b0 + b1P2

Сигма-ограниченные и сверхпараметризованные методы кодирования не применяются по отношению к простым регрессионным планам и другим планам, содержащим только непрерывные предикторы (поскольку, просто не существует категориальных предикторов). Независимо от выбранного метода кодирования, значения непрерывных переменных увеличиваются в соответствующей степени и используются как значения для переменных X. При этом перекодировка не выполняется. Кроме того, при описании регрессионных планов можно опустить рассмотрение матрицы плана X, а работать только с регрессионным уравнением.

Пример: простой регрессионный анализ

Этот пример использует данные, представленные в таблице:

Рис. 3. Таблица исходных данных.

Данные составлены на основе сравнения переписей 1960 и 1970 в произвольно выбранных 30 округах. Названия округов представлены в виде имен наблюдений. Информация относительно каждой переменной представлена ниже:

Рис. 4. Таблица спецификаций переменных.

Задача исследования

Для этого примера будут анализироваться корреляция уровня бедности и степень, которая предсказывает процент семей, которые находятся за чертой бедности. Следовательно мы будем трактовать переменную 3 (Pt_Poor) как зависимую переменную.

Можно выдвинуть гипотезу: изменение численности населения и процент семей, которые находятся за чертой бедности, связаны между собой. Кажется разумным ожидать, что бедность ведет к оттоку населения, следовательно, здесь будет отрицательная корреляция между процентом людей за чертой бедности и изменением численности населения. Следовательно мы будем трактовать переменную 1 (Pop_Chng) как переменную-предиктор.

Просмотр результатов

Коэффициенты регрессии

Рис. 5. Коэффициенты регрессии Pt_Poor на Pop_Chng.

На пересечении строки Pop_Chng и столбца Парам. не стандартизованный коэффициент для регрессии Pt_Poor на Pop_Chng равен -0.40374. Это означает, что для каждого уменьшения численности населения на единицу, имеется увеличение уровня бедности на .40374. Верхний и нижний (по умолчанию) 95% доверительные пределы для этого не стандартизованного коэффициента не включают ноль, так что коэффициент регрессии значим на уровне p<.05. Обратите внимание на не стандартизованный коэффициент, который также является коэффициентом корреляции Пирсона для простых регрессионных планов, равен -.65, который означает, что для каждого уменьшения стандартного отклонения численности населения происходит увеличение стандартного отклонения уровня бедности на .65.

Распределение переменных

Коэффициенты корреляции могут стать существенно завышены или занижены, если в данных присутствуют большие выбросы. Изучим распределение зависимой переменной Pt_Poor по округам. Для этого построим гистограмму переменной Pt_Poor.

Рис. 6. Гистограмма переменной Pt_Poor.

Как вы можете заметить, распределение этой переменной заметно отличается от нормального распределения. Тем не менее, хотя даже два округа (два правых столбца) имеют высокий процент семей, которые находятся за чертой бедности, чем ожидалось в случае нормального распределения, кажется, что они находятся «внутри диапазона.»

Рис. 7. Гистограмма переменной Pt_Poor.

Это суждение в некоторой степени субъективно. Эмпирическое правило гласит, что выбросы необходимо учитывать, если наблюдение (или наблюдения) не попадают в интервал (среднее ± 3 умноженное на стандартное отклонение). В этом случае стоит повторить анализ с выбросами и без, чтобы убедиться, что они не оказывают серьезного эффекта на корреляцию между членами совокупности.

Диаграмма рассеяния

Если одна из гипотез априори о взаимосвязи между заданными переменными, то ее полезно проверить на графике соответствующей диаграммы рассеяния.

Рис. 8. Диаграмма рассеяния.

Диаграмма рассеяния показывает явную отрицательную корреляцию (-.65) между двумя переменными. На ней также показан 95% доверительный интервал для линии регрессии, т.е., с 95% вероятностью линия регрессии проходит между двумя пунктирными кривыми.

Критерии значимости

Рис. 9. Таблица, содержащая критерии значимости.

Критерий для коэффициента регрессии Pop_Chng подтверждает, что Pop_Chng сильно связано с Pt_Poor, p<.001.

Итог

На этом примере было показано, как проанализировать простой регрессионный план. Была также представлена интерпретация не стандартизованных и стандартизованных коэффициентов регрессии. Обсуждена важность изучения распределения откликов зависимой переменной, продемонстрирована техника определения направления и силы взаимосвязи между предиктором и зависимой переменной.

Связанные определения:
Линейная регрессия
Матрица плана
Общая линейная модель
Регрессия

В начало

Содержание портала

I was wondering what to do with the following non-normal distribution of residuals of my multiple regression.

enter image description here

Normal Q_Q Plot of standardized residuals

Normality test of standardized residual

                    Shapiro-Wilk        
           Statistic: ,955 df: 131 Sig: ,000

According to the Shapiro-wilk test the normality test fails.
However, after excluding the outlier located at the left bottom of the graph, I get these test results:

Normality test of standardized residual

                    Shapiro-Wilk        
           Statistic: ,980 df: 130 Sig: ,055

What are my options when the residuals don’t have a normal distribution?
Is it for example alright to remove outliers in order to achieve a normal distribution?

ОПТИМИЗАЦИЯ И МАШИНОСТРОЕНИЕ

Что делать, если ваша модель имеет ненормальное распределение ошибок

Как использовать деформацию для соответствия произвольному распределению ошибок

Одна из самых важных вещей, которую может сказать нам модель, — это ее уверенность в прогнозе. Ответ на этот вопрос может прийти в виде распределения ошибок. Распределение ошибок — это распределение вероятностей для точечного прогноза, сообщающее нам, насколько вероятна каждая дельта ошибки.

Распределение ошибок может быть не менее важным, чем точечное предсказание.

Предположим, вы инвестор, рассматривающий две разные возможности (A и B) и использующий модель для прогнозирования годовой доходности (в процентах от инвестированной суммы). Модель предсказывает, что A и B будут иметь одинаковую ожидаемую годовую доходность в 10%, но показывает эти распределения ошибок.

Несмотря на то, что обе возможности имеют одинаковую ожидаемую доходность, распределение ошибок показывает, насколько они различны. B сильно распределен относительно своей ожидаемой стоимости с небольшим риском потери денег; тогда как A больше похож на лотерею. Небольшая вероятность получения высокой выплаты (доходность ~ 500%); но в большинстве случаев мы теряем все (доходность ~ -100%).

Точечный прогноз ничего не говорит нам о том, где вероятнее всего будут распределены целевые значения. Если важно знать, насколько далеко может быть предсказание, или если целевые значения могут быть сгруппированы по жирным хвостам, тогда становится важным точное распределение ошибок.

Самый простой способ ошибиться в распределении ошибок — это попытаться придать ему форму, которой она не принимает. Это часто случается, когда мы достигаем удобного, но часто неправильно применяемого нормального распределения.

Нормальное распределение популярно не зря. Центральная предельная теорема не только упрощает математику, но и говорит нам, что нормальное распределение может быть естественным выбором для многих задач.

Каким образом может возникнуть нормальное распределение?

Пусть X обозначает матрицу признаков, а b обозначает вектор регрессоров. Предположим, целевые значения генерируются уравнением

куда

Центральная предельная теорема гласит, что если E являются независимо одинаково распределенными случайными величинами с конечной дисперсией, то сумма будет приближаться к нормальному распределению по мере увеличения m .

Даже если E явно ненормально, e будет близок к нормальному, если суммирование содержит достаточно членов.

Давайте посмотрим на конкретный пример. Установите b = (-2, 3). Пусть записи X генерируются независимо от равномерного распределения [-1, 1]. Мы сгенерируем E ’ из этого явно ненормального распределения.

Мы нормализуем распределение ошибок для e, чтобы иметь отклонение в единицах, и позволяем количеству терминов m варьироваться. Вот гистограммы ошибок (оранжевым цветом) из моделей наименьших квадратов, взятые из прогонов моделирования для различных значений m и наложенные на ожидаемую гистограмму ошибок, если они были нормально распределены (синим цветом) ¹.

При больших значениях m гистограмма ошибок становится все ближе к гистограмме нормального распределения.

Когда есть основания полагать, что члены ошибок разбиваются на суммы независимых одинаково распределенных факторов, подобных этому, нормальное распределение является хорошим выбором. Но в общем случае у нас нет оснований предполагать это. И действительно, многие распределения ошибок не являются нормальными, демонстрируя перекосы и жирные хвосты.

Что делать, если распределение ошибок ненормально?

Здесь нам помогает деформация². Он использует нормальное распределение в качестве строительного блока, но дает нам ручки для локальной настройки распределения, чтобы лучше соответствовать ошибкам из данных.

Чтобы увидеть, как работает деформация, обратите внимание, что если f (y) — это монотонно возрастающая сюръективная функция, а p (z) — функция плотности вероятности, то p (f (y)) f ′ (y) формирует новую функцию плотности вероятности.

потому что f ′ (y) ≥ 0; и после применения подстановки u = f (y) , Мы видим, что

Давайте посмотрим на пример, чтобы увидеть, как f может изменить распределение. Предположим, p (z) — стандартное нормальное распределение N (0, 1), а f (y) определяется как

где c ›0; и между [0, 1], f — это сплайн, плавно переходящий между y и cy. Вот как выглядит f для нескольких разных значений c.

и вот как выглядят полученные искаженные распределения вероятностей³

Когда c = 2, площадь перераспределяется из стандартного нормального распределения, так что функция плотности вероятности (PDF) достигает пика, а затем быстро спадает, чтобы получить более тонкий правый хвост. Когда c = 0,5, происходит обратное: PDF быстро падает, а затем замедляется скорость уменьшения, чтобы получить более толстый правый хвост.

Теперь представьте, что f параметризован вектором ψ, который позволяет нам делать произвольные локальные корректировки скорости увеличения. (Подробнее о параметризации f позже). Тогда с подходящим ψ, f может соответствовать широкому диапазону различных дистрибутивов. Если мы сможем найти способ правильно настроить ψ, это даст нам мощный инструмент для подгонки распределений ошибок.

Как настроить параметры деформации?

Лучшее соответствие распределения ошибок повышает вероятность ошибок в обучающих данных. Отсюда следует, что мы можем найти параметры деформации, максимизируя вероятность обучающих данных.

Во-первых, давайте посмотрим, как работает максимальное увеличение вероятности без искажений.

Пусть θ обозначает вектор параметров для данной регрессионной модели. Пусть g (x; θ) представляет прогноз модели для вектора признаков x. Если мы используем нормальное распределение со стандартным отклонением σ для моделирования распределения ошибок прогнозов, то вероятность обучающих данных равна

и логарифм правдоподобия

Положил

(RSS означает остаточная сумма квадратов)

При фиксированном θ σ максимизирует вероятность, когда

В более общем плане, если σ² = cRSS (c ›0), то логарифмическая вероятность упрощается до

И мы видим, что вероятность увеличивается, когда θ минимизирует RSS.

Теперь предположим, что мы деформируем целевое пространство с помощью монотонной функции f, параметризованной ψ. Пусть f (y; ψ) обозначает искривленное целевое значение. Тогда вероятность искаженного распределения ошибок равна

и логарифмическая вероятность становится

Или с

и σ² = cRSS

Чтобы соответствовать распределению ошибок, мы воспользуемся оптимизатором, чтобы найти параметры (θ, ψ), которые увеличивают эту вероятность.

Для работы оптимизатора требуется локальное приближение к цели, которое он может использовать для итеративного улучшения параметров. Чтобы построить такое приближение, нам нужно будет вычислить градиент логарифма правдоподобия по отношению к вектору параметров.

Положил

Мы можем использовать L в качестве прокси для логарифмической вероятности, поскольку она отличается только константой.

Искажение — это общий процесс, который можно применить к любой базовой регрессионной модели, но мы сосредоточимся на простейшей базовой модели — линейной регрессии.

Как исказить модель линейной регрессии?

С помощью линейной регрессии мы можем получить замкнутую форму для θ. Пусть Q и R — матрицы QR-факторизации матрицы признаков X

где Q ортогонально, а R — прямоугольный треугольник. Положил

и пусть обозначает вектор, который минимизирует RSS для искаженных целей z

Положил

потом

Если X имеет m линейно независимых столбцов, то первые m строк прямоугольной треугольной матрицы R имеют ненулевые элементы на диагонали, а остальные строки равны 0. Отсюда следует, что

для i ≤m и

для я ›м. Следовательно,

Пусть P — диагональная матрица размера n x n с

Установленный

потом

Подставляя эти уравнения в прокси логарифмического правдоподобия, мы получаем

И дифференциация по параметру деформации дает нам

Используя эти производные, оптимизатор может перейти к параметрам деформации ψ, которые увеличивают вероятность обучающих данных.

Как делать прогнозы с помощью искаженной модели линейной регрессии?

Теперь, когда мы нашли параметры деформации, нам нужно сделать прогнозы.

Рассмотрим, как это работает в стандартной обычной модели наименьших квадратов без деформации. Предположим, данные генерируются из модели

где ε находится в N (0, σ²). Пусть X и y обозначают данные обучения. Регрессоры, которые минимизируют RSS обучающих данных, являются

Если x ′ и y обозначают вектор признаков и целевое значение вне выборки

тогда ошибка прогноза вне выборки

Поскольку ε и ε ′ нормально распределены, отсюда следует, что e ′ нормально распределены, а дисперсия

Мы редко знаем дисперсию шума σ², но мы можем использовать это уравнение для получения несмещенной оценки для него.

где p — количество регрессоров.

Предположим, что теперь обычная модель наименьших квадратов соответствует искривленным целевым значениям.

Обычный метод наименьших квадратов дает нам точечный прогноз и распределение ошибок для скрытого пространства, но нам нужно инвертировать деформацию, чтобы получить прогноз для целевого пространства.

Пусть представляет скрытое предсказание для вектора признаков вне выборки x ′. Если — это оценочная дисперсия скрытого шума, то вероятность целевого значения y равна

и ожидаемое целевое значение

После выполнения подстановки u = f (y) ожидаемое значение можно переписать как

Обратное к f может быть вычислено с помощью метода Ньютона, чтобы найти корень f (y)u,, а интеграл может быть эффективно оценивается с помощью квадратуры Гаусса-Эрмита.

Какие эффективные функции для деформации?

Давайте обратим наше внимание на функцию деформации f (y; ψ) и то, как ее параметризовать. Мы хотели бы, чтобы параметризация позволяла использовать широкий спектр различных функций, но мы также должны убедиться, что она разрешает только монотонно возрастающие функции сюръективного искажения.

Обратите внимание, что функция деформации инвариантна при изменении масштаба: c f (y; ψ) приводит к тем же результатам, что и f (y; ψ). Установите θ ′ так, чтобы g (x; θ ) = c g (x; θ). Тогда прокси логарифмического правдоподобия L (ψ, θ ′) для c f (y; ψ) равно

Важно то, как функция деформации изменяет относительный интервал между целевыми значениями.

Одно эффективное семейство функций для деформации:

Каждый шаг tanh позволяет локализовать изменение наклона функции деформации. Термин t гарантирует, что функция деформации монотонно сюръективна и возвращается к идентичности, когда t далеко от любого шага. А из-за неизменности масштабирования нет необходимости добавлять коэффициент масштабирования к t.

Мы сделаем еще одну корректировку, чтобы функция деформации обнуляла среднее значение. Положил

Пример проблемы

Набор данных о сообществах и преступности⁵ предоставляет статистику преступности для различных населенных пунктов США. Как задача регрессии, задача состоит в том, чтобы предсказать уровень насильственных преступлений по различным социально-экономическим показателям. Мы подгоним модель деформированной линейной регрессии к набору данных и сравним ее эффективность с обычной моделью наименьших квадратов.

Давайте посмотрим на подгонку функции деформации, чтобы максимизировать логарифмическую вероятность обучающих данных.

Пусть σ обозначает оценочное стандартное отклонение шума в скрытом пространстве. Чтобы наглядно представить, как эта функция изменяет распределение ошибок, мы построим диапазон

по целевым значениям

Искажение уменьшает диапазон ошибок прогноза при более низких целевых значениях⁶.

Чтобы увидеть, приводит ли деформация к лучшим результатам, давайте сравним производительность деформированной модели линейной регрессии (WLR) с обычной моделью наименьших квадратов (OLS) при десятикратной перекрестной проверке набора данных сообществ. Мы используем среднее значение логарифма правдоподобия (MLL) в качестве измерения ошибки. MLL усредняет логарифмическую вероятность каждого вневыборочного прогноза при перекрестной проверке⁷.

Результаты показывают, что деформированная линейная регрессия работает значительно лучше. Детализация нескольких случайно выбранных прогнозов и их распределений ошибок помогает объяснить, почему.

Диапазон значений естественным образом ограничен нулем, а деформация изменяет форму функции плотности вероятности, чтобы сузиться, чтобы получить больше вероятностной массы для допустимых целевых значений.

Резюме

Может возникнуть соблазн использовать нормальное распределение для моделирования ошибок. Это упрощает математику, а центральная предельная теорема говорит нам, что нормальность возникает естественным образом, когда ошибки разбиваются на суммы по независимо одинаково распределенным случайным величинам.

Но многие проблемы регрессии не укладываются в такую ​​схему, и распределение ошибок может быть далеким от нормального.

Когда вы сталкиваетесь с нестандартным распределением ошибок, одним из вариантов является преобразование целевого пространства. С помощью правильной функции f можно добиться нормальности, если мы заменим исходные целевые значения y на f (y). Специфика проблемы иногда может привести к естественному выбору f. В других случаях мы могли бы подойти к проблеме с набором фиксированных преобразований и надеяться, что один из них разблокирует нормальность. Но это может быть спонтанный процесс.

Искажение превращает этап трансформации в проблему максимального правдоподобия. Вместо применения фиксированных преобразований деформация использует параметризованные функции, которые могут аппроксимировать произвольные преобразования и подгоняют функции к задаче с помощью оптимизатора.

С помощью функции преобразования деформация может улавливать аспекты ненормальности в распределении ошибок, такие как перекос и толстые хвосты. Для многих проблем это приводит к повышению производительности прогнозирования вне выборки и позволяет избежать специальной работы с фиксированными преобразованиями.

Заинтересованы в создании деформированных моделей? Ознакомьтесь с пакетом Python peak-motors.

Сноски

[1]: См. Https://github.com/rnburn/warped-regression-doc/blob/master/notebooks/normal_errors.ipynb для получения подробной информации о полной симуляции.

[2]: представление деформации и конкретные используемые функции деформации взяты из

Э. Снельсон, CE Расмуссен, З. Гахрамани. Искаженные гауссовские процессы. Достижения в области нейронных систем обработки информации 16, 337–344

[3]: функции и графики деформации доступны в https://github.com/rnburn/warped-regression-doc/blob/master/notebooks/warp.ipynb

[4]: См. Https://github.com/rnburn/warped-regression-doc/blob/master/notebooks/ols_prediction_error.ipynb для проверки уравнения.

[5]: Доступно как часть Репозитория машинного обучения UCI. Смотрите также

Министерство торговли США, Бюро переписи, переписи населения и жилищного фонда 1990 г. США: Сводная запись на магнитной ленте 1a и 3a (компьютерные файлы),

Министерство торговли США, Бюро переписи населения, Вашингтон, округ Колумбия, и Межуниверситетский консорциум политических и социальных исследований, Анн-Арбор, Мичиган. (1992)

Министерство юстиции США, Бюро статистики юстиции, Управление правоохранительной деятельности и административная статистика (компьютерный файл) Министерство торговли США, Бюро переписи населения, Вашингтон, округ Колумбия, и Межуниверситетский консорциум политических и социальных исследований, Анн-Арбор, Мичиган. (1992)

Министерство юстиции США, Федеральное бюро расследований, Преступность в Соединенных Штатах (компьютерный файл) (1995)

Редмонд, М. А. и А. Бавея: Управляемый данными программный инструмент для обеспечения совместного обмена информацией между полицейскими управлениями. Европейский журнал операционных исследований 141 (2002) 660–678.

[6]: см. Https://github.com/rnburn/warped-regression-doc/blob/master/notebooks/communities_example.ipynb

[7]: см. Https://github.com/rnburn/warped-regression-doc/blob/master/notebooks/communities_example_cv.ipynb

Возможно, вам также будет интересно:

  • Если ошибки загораются и гаснут
  • Если ошибки во время намаза
  • Если ошибки в протоколе лицензирования
  • Если ошибки в начале диска
  • Если ошибки в квитанции ответственность

  • Понравилась статья? Поделить с друзьями:
    0 0 голоса
    Рейтинг статьи
    Подписаться
    Уведомить о
    guest

    0 комментариев
    Старые
    Новые Популярные
    Межтекстовые Отзывы
    Посмотреть все комментарии