РЕГРЕССИОННЫЙ АНАЛИЗ

В практике экономических исследований очень часто имеющиеся данные нельзя считать выборкой из многомерной нормальной совокупности, например, когда одна из рассматриваемых переменных не является случайной или когда линия регрессии явно не прямая и т.п. В этих случаях пытаются определить кривую (поверхность), которая дает наилучшее (в смысле метода наименьших квадратов) приближение к исходным данным. Соответствующие методы приближения получили название регрессионного анализа.

Задачами регрессионного анализа являются установление формы зависимости между переменными, оценка функции регрессии, оценка неизвестных значений (прогноз значений) зависимой переменной.

Основные положения регрессионного анализа. Парная регрессионная модель

В регрессионном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) неслучайной независимой переменной X, называемой часто объясняющей переменнойК Такая зависимость может возникнуть, например, в случае, когда при каждом фиксированном значении X соответствующие значения Y подвержены случайному разбросу за счет действия неконтролируемых факторов (например, зависимость количества проданного на рынке товара от цены этого товара и т.п.). Указанная зависимость Y от X (иногда ее называют регрессионной) может быть представлена также в виде модельного уравнения регрессии (12.1). В силу воздействия неучтенных случайных факторов и причин отдельные наблюдения у будут в большей или меньшей мере отклоняться от функции регрессии ф(дг). В этом случае уравнение взаимосвязи двух переменных {парная регрессионная модель) может быть представлено в виде

где е — случайная переменная, характеризующая отклонение от функции регрессии. Эту переменную будем называть возмущающей или просто воз- [1]

мущением1. Таким образом, в регрессионной модели зависимая переменная Y есть некоторая функция ср(Х) с точностью до случайного возмущения в.

Рассмотрим линейный регрессионный анализ, для которого функция ф(Х) лине й н а относительно оцениваемых параметров:

Предположим, что для оценки параметров линейной функции регрессии (13.1) взята выборка, содержащая п пар значений переменных (х,, г/,), где i = 1, 2,..., п. В этом случае линейная парная регрессионная модель имеет вид

Отметим основные предпосылки регрессионного анализа.

  • 1. В модели (13.2) возмущение[2] [3] [4] в, (или зависимая переменная у) есть величина случайная, а объясняющая переменная х{ — величина неслучайная*.
  • 2. Математическое ожидание возмущения г, равно нулю:

(или математическое ожидание зависимой переменной у{ равно линейной функции регрессии: М(г/;) = р0 + Рл).

3. Дисперсия возмущения г, (или зависимой переменной г/,) постоянна для любого г:

  • (или D(yi) = а[3] — условие гомоскедастичпости или равноизмепчивости возмущения (зависимой переменной)).
  • 4. Возмущения г, и г; (или переменные у{ и yj) не коррелированьд:

5. Возмущение г, (или зависимая переменная уд есть нормально распределенная случайная величина.

Для получения уравнения регрессии достаточно первых четырех предпосылок. Требование выполнения пятой предпосылки (т.е. рассмотрение «нормальной регрессии») необходимо для оценки точности уравнения регрессии и его параметров.

Оценкой модели (13.2) по выборке является уравнение регрессии ух = Ь0 + Ь{х (12.8). Параметры этого уравнения Ь0 и Ь{ определяются на основе метода наименьших квадратов. Об их нахождении подробно см. в параграфе 12.2.

4

Теорема Гаусса — Маркова. Если регрессивная модель удовлетворяет предпосылкам 1—4, то оценки Ь() (12.14') и />, (12.17) имеют наименьшую дисперсию в классе всех линейных несмещенных оценок, т.е. являются эффективными оценками параметров р„ и (S,.

Воздействие неучтенных случайных факторов и ошибок наблюдений в модели (13.2) определяется с помощью дисперсии возмущений (ошибок) или остаточной дисперсии а2. Несмещенной оценкой этой дисперсии является выборочная остаточная дисперсия

где ух. —групповая средняя, найденная по уравнению регрессии; е, х. - г/, — выборочная оценка возмущения е, или остаток регрессии1.

В знаменателе выражения (13.6) стоит число степеней свободы п-2, а не п, так как две степени свободы теряются при определении двух параметров прямой Ь0 и Ь.

  • [1] В литературе Y называют также функцией отклика, объясняемой, выходной, результирующей, эндогенной переменной, результативным признаком, а X — входной, предсказывающей, предикторной, экзогенной переменной; фактором; регрессором, факторным признаком.
  • [2] Переменную е называют также остаточной, или остатком, либо ошибкой.
  • [3] Во всех предпосылках i = 1,2.....п.
  • [4] При этом предполагается, что среди значений xi (* = 1, 2,..., п), по крайней мере, не всеодинаковые, так что имеет смысл формула (12.17) для коэффициента регрессии.
  • [5] Во всех предпосылках i = 1,2.....п.
 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >