Оценивание параметров множественной линейной регрессии в условиях гетероскедастичности ошибок

Если бы дисперсии всех ошибок были заранее известны, то для устранения гетероскедастичности достаточно было бы оценить исходное уравнение, поделенное почленно на стандартные отклонения ошибок

и оценить регрессию с новыми факторами

В уравнении

вес ошибки имеют одну и ту же дисперсию, равную единице, поскольку ( и А 1

var(e*) = var — = —var(e.) = 1. Тогда МНК-оценки коэффициентов в ре-

IЪ) <*,

грессии с преобразованными данными имеют вид

Эту оценку можно выразить через исходные данные (см. задание 10.2):

Соответствующая оценка коэффициентов регрессии называется оценкой взвешенного метода наименьших квадратов. В качестве весов выступают величины, обратные дисперсиям ошибок, т.е. чем выше дисперсия ошибок некоторого наблюдения, тем ниже его вес. Ковариационная матрица оценок коэффициентов регрессии в этом случае имеет вид (см. задание 10.3)

В силу теоремы Гаусса — Маркова соответствующие оценки дисперсий оценок коэффициентов являются эффективными.

Однако в реальности дисперсии ошибок заранее неизвестны, поэтому для устранения гетероскедастичности обычно используются оценки стандартных отклонений a-, i = 1, ..., п. Эти оценки можно получить, например, из теста

Глейзера. Если, скажем, оказалась значима зависимость | е = а + + в, то

можно использовать оценку а = а + причем стандартные отклонения достаточно знать с точностью до пропорциональности (см. задание 10.1).

Изменение спецификации модели с линейной формы на логарифмическую может привести к тому, что в тестах на гетероскедастичность не будет отвергаться основная гипотеза о гомоскедастичности.

Вместо корректировки переменных, чтобы модели соответствовали условиям теоремы Гаусса — Маркова, можно выбрать другой путь. Учитывая, что при гетероскедастичности ошибок МНК-оценки коэффициентов остаются несмещенными, проблемы возникают лишь со стандартными ошибками коэффициентов регрессии.

Наиболее распространенным способом коррекции гетероскедастичности в общем виде является использование оценок Уайта[1] для дисперсий ко- эгЬгЬипиентои:

где х, — i-я строка матрицы X, i = 1,..., п.

Напомним, что диагональными элементами в матрице V(p) являются оценки дисперсий оценок коэффициентов (30, рр ..., рА,.

Оценки Уайта являются состоятельными1, но на конечных выборках даже они не полностью корректируют смещение оценок стандартных ошибок коэффициентов. В современных статистических пакетах опция, выполняющая коррекцию по Уайту, называется НСО (heteroskedasticity consistent, состоятельные при гетероскедастичности), однако рекомендуется использовать опции НС2 или (при наличии в выборке выбросов — наблюдений, сильно отличающихся от остальных) НСЗ: исследования показывают, что на конечных выборках они дают самые точные результаты[2] [3].

  • [1] См. статью: White Н. A hetcroskedasticity-consistent covariance matrix estimator and a directtest for heteroskedasticity // Econometrica. 1980. P. 817—838.
  • [2] См. работу [21, р. 273).
  • [3] Данные обозначения взяты из учебника [19]. См. также URL: http://www.indiana.edu/-jslsoc/files research/testing tests/hccm/99TAS.pdf.
 
Посмотреть оригинал
< Пред   СОДЕРЖАНИЕ   ОРИГИНАЛ     След >