Линейная регрессия

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску
y=ax+b
Пример линии (красная), построенной с использованием линейной регрессии

Линейная регрессия (англ. Linear regression) — используемая в статистике регрессионная модель зависимости одной (объясняемой, зависимой) переменной от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) с линейной функцией зависимости.

Модель линейной регрессии является часто используемой и наиболее изученной в эконометрике. А именно изучены свойства оценок параметров, получаемых различными методами при предположениях о вероятностных характеристиках факторов, и случайных ошибок модели. Предельные (асимптотические) свойства оценок нелинейных моделей также выводятся исходя из аппроксимации последних линейными моделями. С эконометрической точки зрения более важное значение имеет линейность по параметрам, чем линейность по факторам модели.

Определение[править | править код]

Регрессионная модель

,

где  — параметры модели,  — случайная ошибка модели; называется линейной регрессией, если функция регрессии имеет вид

,

где  — параметры (коэффициенты) регрессии,  — регрессоры (факторы модели), k — количество факторов модели[1].

Коэффициенты линейной регрессии показывают скорость изменения зависимой переменной по данному фактору, при фиксированных остальных факторах (в линейной модели эта скорость постоянна):

Параметр , при котором нет факторов, называют часто константой. Формально — это значение функции при нулевом значении всех факторов. Для аналитических целей удобно считать, что константа — это параметр при «факторе», равном 1 (или другой произвольной постоянной, поэтому константой называют также и этот «фактор»). В таком случае, если перенумеровать факторы и параметры исходной модели с учетом этого (оставив обозначение общего количества факторов — k), то линейную функцию регрессии можно записать в следующем виде, формально не содержащем константу:

,

где  — вектор регрессоров,  — вектор-столбец параметров (коэффициентов).

Линейная модель может быть как с константой, так и без константы. Тогда в этом представлении первый фактор либо равен единице, либо является обычным фактором соответственно.

Парная и множественная регрессия[править | править код]

В частном случае, когда фактор единственный (без учёта константы), говорят о парной или простейшей линейной регрессии:

Когда количество факторов (без учёта константы) больше одного, то говорят о множественной регрессии:

Примеры[править | править код]

Модель затрат организации (без указания случайной ошибки)[править | править код]

  •  — общие затраты
  •  — постоянные затраты (не зависящие от объёма производства)
  •  — переменные затраты, пропорциональные объёму производства
  •  — удельные или средние (на единицу продукции) переменные затраты
  •  — объём производства.

Простейшая модель потребительских расходов (Кейнс)[править | править код]

  •  — потребительские расходы
  •  — располагаемый доход
  •  — «предельная склонность к потреблению»
  •  — автономное (не зависящее от дохода) потребление.

Матричное представление[править | править код]

Пусть дана выборка объёмом n наблюдений переменных y и x. Обозначим t — номер наблюдения в выборке. Тогда  — значение переменной y в t-м наблюдении,  — значение j-го фактора в t-м наблюдении. Соответственно,  — вектор регрессоров в t-м наблюдении. Тогда линейная регрессионная зависимость имеет место в каждом наблюдении:

Введём обозначения:

 — вектор наблюдений зависимой переменой y
 — матрица факторов.
 — вектор случайных ошибок.

Тогда модель линейной регрессии можно представить в матричной форме:

Классическая линейная регрессия[править | править код]

В классической линейной регрессии предполагается, что наряду со стандартным условием выполнены также следующие предположения (условия Гаусса-Маркова):

  1. Гомоскедастичность (постоянная или одинаковая дисперсия) или отсутствие гетероскедастичности случайных ошибок модели:
  2. Отсутствие автокорреляции случайных ошибок:

Данные предположения в матричном представлении модели формулируются в виде одного предположения о структуре ковариационной матрицы вектора случайных ошибок:

Помимо указанных предположений, в классической модели факторы предполагаются детерминированными (нестохастическими). Кроме того, формально требуется, чтобы матрица имела полный ранг (), то есть предполагается, что отсутствует полная коллинеарность факторов.

При выполнении классических предположений обычный метод наименьших квадратов позволяет получить достаточно качественные оценки параметров модели, а именно: они являются несмещёнными, состоятельными и наиболее эффективными оценками.

Методы оценки[править | править код]

См. также[править | править код]

Примечания[править | править код]

Литература[править | править код]

  • Е.З. Демиденко. Линейная и нелинейная регрессия. — М.: Финансы и статистика, 1981. — 302 с.
  • Дж. Себер. Линейный регрессионный анализ. — М.: Мир, 1980. — 456 с. — 13 700 экз.