<<

стр. 10
(всего 28)

СОДЕРЖАНИЕ

>>

i
a и ?i коррелированы и поэтому:
g4
E(??i ) = ?2 oi ,
где oi — i-й орт
?1
?i = ? 2 1 + zi (Z Z)
2
zi + 2zi E((? ? a) ?i ) =
<?>
??
(7.27)
= ?L?
?1 ?1 ?1
= ? 2 1 + zi (Z Z) zi ? 2? 2 zi (Z Z) zi = ? 2 1 ? zi (Z Z) zi .

?1
Величины 1?zi (Z Z) zi (i = 1, . . . , N ), естественно, неотрицательны, посколь-
ку они являются диагональными элементами матрицы B из (7.32), которая поло-
жительно полуопределена.

Структуру дисперсии ошибки прогноза (7.63) можно пояснить на примере
n = 1. В этом случае (используются обозначения исходной формы уравнения ре-
грессии, и все z — одномерные величины):
(zr ? z )2
1 ?
2 2
(7.64)
?p =? 1+ + .
?2
N zi
246 Глава 7. Основная модель линейной регрессии

В этом легко убедиться, если перейти к обозначениям исходной формы урав-
нения регрессии, подставить в (7.63) вместо zr и Z , соответственно, zr 1
и Z 1N и сделать необходимые преобразования (правило обращения матрицы
(2 ? 2) см. в Приложении A.1.2), учитывая, что
? ??1 ? ?
??2 ?
??1 ?2 ? ? ?4
1
zi + N z 2 :
?2
? ? ? ? и ZZ=
= ?
?1 ?4 ? ?2 ?3
??3
?3 ?4 ?1

? ? ??1 ? ??
? ?Z Z N z? ?zr ??
?
?p = ? 2 ?1 + zr
2
1? ? ? ?? =
Nz
? N 1
? ? ? ? ??
?? ? ?zr ??
? ?1 z
1
= ? 2 ?1 + 1? ? ? ?? =
Z Z ? N z zr
? 1
??
z NZ Z 1
2
1
2
zi + N z 2
?2
zr ? 2?zr + (zr ? z )
z ? 1 ?
2 2
N
=? 1+ =? 1+ + .
?2 ?2
zi N zi

Что и требовалось доказать.

Это выражение показывает «вклады» в дисперсию ошибки прогноза собствен-
но остаточной дисперсии, ошибки оценки свободного члена и ошибки оценки угло-
вого коэффициента. Первые две составляющие постоянны и не зависят от горизон-
та прогнозирования, т.е. от того, насколько сильно условия прогноза (в частности,
значение zr ) отличаются от условий, в которых построена модель (в частности,
значение z ). Третья составляющая — ошибка оценки углового коэффициента —
?
определяет расширяющийся конус ошибки прогноза.
Мы рассмотрели точечный прогноз. Если дополнительно к гипотезам g1?g4
предположить выполнение гипотезы g5 для i = 1, . . . , N и для r > N , то можно
построить также интервальный прогноз.
По формуле (7.27) ошибка прогноза имеет вид:
?p = zr (? ? a) + ?r = zr L? + ?r .
r

Таким образом, она имеет нормальное распределение:
2
?p = xr ? xp ? N (0, ?p ).
r r

Если бы дисперсия ошибки ? 2 была известна, то на основе того, что
xr ? xp
? N (0, 1),
r
?p
247
7.5. Упражнения и задачи

для xr можно было бы построить (1 ? ?)100-процентный
Таблица 7.1
прогнозный интервал:
X Z1 Z2
xr ? [xp ± ?p ?1?? ] .
?
r
65.7 26.8 541
2 ? 2 (1+zr (Z Z)?1 zr )
Вместо неизвестной дисперсии ?p =
74.2 25.3 616
берется несмещенная оценка
74 25.3 610
s2 s2 (1 ?1
= ?e + zr (Z Z) zr ).
p 66.8 31.1 636

64.1 33.3 651
По аналогии с (7.44) можно вывести, что
67.7 31.2 645
xr ? xp
? tN ?n?1 .
r
sp 70.9 29.5 653

69.6 30.3 682
Тогда в приведенной формуле прогнозного интервала необ-
?
ходимо заменить ?p на sp и ?1?? на tN ?n?1, 1?? :
? 67 29.1 604

68.4 23.7 515
xr ? xp ± sp tN ?n?1, 1?? .
?
r
70.7 15.6 390

7.5. Упражнения и задачи 69.6 13.9 364

63.1 18.8 411
Упражнение 1 48.4 27.4 459

По наблюдениям за объясняемой переменной X и за 55.1 26.9 517
объясняющими переменными Z = (Z1 , Z2 ) из таблицы 7.1:
55.8 27.7 551

1.1. Вычислите ковариационную матрицу переменных z 58.2 24.5 506
1??
(M = Z Z), вектор ковариаций переменных z с пе- 64.7 22.2 538
N
1??
ременной x ( m = Z X), дисперсию объясняемой 73.5 19.3 576
N
переменной s2 . Для регрессии X = Za + 1N b + e най- 68.4 24.7 697
x
дите оценки a и b, объясненную дисперсию s2 = m a
q
и остаточную дисперсию s2 = s2 ? s2 , а также коэф-
e x q
2.
фициент детерминации R

1.2. Запишите для данной модели уравнение регрессии в форме со скрытым сво-
бодным членом X = Z a + e. Рассчитайте для переменных начальные момен-
ты второго порядка двумя способами:
1 1
а) M = и m=
NZ Z NZ X
248 Глава 7. Основная модель линейной регрессии
? ? ? ?
?M + z z z ?
?? ? ?m + z x?
??
б) M = ? ? и m=? ?.
z
? 1 x?
1
1.3. Найдите оценку a, рассчитайте s2 = N X X ? x2 и s2 = m a ? x2 и убе-
? ?
x q
дитесь, что результат совпадает с результатом пункта 1 упражнения 1.

1.4. Рассчитайте несмещенную оценку остаточной дисперсии
N
s2 = s2
?e
N ?n?1 e
и оцените матрицу ковариации параметров уравнения регрессии
s2 ?1
?
Ma = e M .
N
1.5. Используя уровень значимости ? = 0.05, вычислите доверительные интер-
валы для коэффициентов уравнения регрессии и проверьте значимость фак-
торов.

R2 (N ? n ? 1)
Fc
1.6. Рассчитайте статистику и, используя уровень значи-
=
(1 ? R2 )n
мости ? = 0.05, проверьте гипотезу о том, что модель некорректна и все
факторы введены в нее ошибочно.

1.7. Рассчитайте коэффициент детерминации, скорректированный на число сте-
пеней свободы R2 .
?

1.8. По найденному уравнению регрессии и значениям

а) z = (min Z1 , min Z2 );
??
б) z = (Z1 , Z2 );
в) z = (max Z1 , max Z2 );

вычислите предсказанное значение для x и соответствующую интервальную
оценку при ? = 0.05.


Упражнение 2

Дано уравнение регрессии: X = Z ? + ? = ?1.410z1 + 0.080z2 + 56.962 120 + ?,
где X— вектор-столбец 20 наблюдений за объясняемой переменной (20 ? 1),
? — вектор-столбец случайных ошибок (20 ? 1) с нулевым средним и ковариа-
ционной матрицей ? 2 I20 = 21.611I20 и Z — матрица размерности (20 ? 3) на-
блюдений за объясняющими переменными. Используя нормальное распределение
249
7.5. Упражнения и задачи

с независимыми наблюдениями, со средним 0 и ковариационной матрицей ? 2 I20 =
= 21.611I20 , получите 100 выборок вектора ? (N ? 1), k = 1, . . . , 100, где N =
= 20. Эти случайные векторы потом используйте вместе с известным вектором
? = (?1.410, 0.080, 56.962) и матрицей Z = (Z1 , Z2 , 1) из таблицы 7.1. Снача-
ла получите ожидаемое значения X 0 = Z ?, затем, чтобы получить 100 выборок
вектора X (20 ? 1), добавьте случайные ошибки: X 0 + ? = X.


2.1. Используйте 10 из 100 выборок, чтобы получить выборочные оценки для ?1 ,
?2 , ? , ? и R2 .

2.2. Вычислите матрицу ковариаций параметров уравнения регрессии Ma для каж-
дого элемента выборки и сравните с истинным значением ковариационной
матрицы:
? ?
?0.004112 ?0.233234 ?
? 0.099813
? ?
?1 ? ?
2
= ? ?0.004112 ?0.057857 ? .
? ZZ 0.000290
? ?
? ?
?0.233234 ?0.057857 39.278158

Дайте интерпретацию диагональных элементов ковариационных матриц.

2.3. Вычислите среднее и дисперсию для 10 выборок для каждого из параметров,
полученных в упражнении 2.1, и сравните эти средние значения с истинными
параметрами. Обратите внимание, подтвердилась ли ожидаемые теоретиче-
ские результаты.

2.4. Используя уровень значимости ? = 0.05, вычислите и сравните интерваль-
ные оценки для ?1 , ?2 , ? и ? для 10 выборок.

2.5. Объедините 10 выборок, по 20 наблюдений каждая, в 5 выборок по 40 на-
блюдений и повторите упражнения 2.1 и 2.2. Сделайте выводы о результатах
увеличения объема выборки.

2.6. Повторите упражнения 2.1 и 2.5 для всех 100 и для 50 выборок и проана-
лизируйте разницу в результатах.

2.7. Постройте распределения частот для оценок, полученных в упражнении 2.6,
сравните и прокомментируйте результаты.
250 Глава 7. Основная модель линейной регрессии

Задачи

1. В регрессии X = Za + 1N b + e матрица вторых начальных моментов ре-
? ?
?9 2?
грессоров равна ? ?. Найдите дисперсию объясняющей переменной.
21

2. На основании ежегодных данных за 10 лет с помощью МНК была сделана
оценка параметров производственной функции типа Кобба—Дугласа. Чему
равна несмещенная оценка дисперсии ошибки, если сумма квадратов остат-
ков равна 32?

3. В регрессии X = Za + 1N b + e с факторами Z = (1, 2, 3) сумма квадра-
тов остатков равна 6. Найдите ковариационную матрицу оценок параметров
регрессии.

4. Какие свойства МНК-оценок коэффициентов регрессии теряются, если
ошибки по наблюдениям коррелированы и/или имеют разные дисперсии?

5. Что обеспечивает гипотеза о нормальности распределения ошибок при по-
строения уравнения регрессии? Ответ обоснуйте.

6. Какие ограничения на параметры уравнения проверяются с помощью t-кри-
терия (написать ограничения с расшифровкой обозначений)?

7. Четырехфакторное уравнение регрессии оценено по 20-ти наблюдениям.
В каком случае отношение оценки коэффициента регрессии к ее стандарт-
ной ошибке имеет распределение t-Стьюдента? Сколько степенией свободы
в этом случае имеет эта статистика?

8. Оценки МНК в регрессии по 20-ти наблюдениям равны (2, ?1), а ковариа-
? ?
?9 2?
ционная матрица этих оценок равна ? ?. Найти статистики t-Стьюдента
21
для этих коэффициентов.

9. По 10 наблюдениям дана оценка 4 одному из коэффициентов двухфакторной
регрессии. Дисперсия его ошибки равна 4. Построить 99%-ный доверитель-
ный интервал для этого коэффициента.

10. МНК-оценка параметра регрессии, полученная по 16 наблюдениям, рав-
на 4, оценка его стандартной ошибки равна 1. Можно ли утверждать с веро-
ятностью ошибки не более 5%, что истинное значение параметра равно 5.93?
Объяснить почему.
251
7.5. Упражнения и задачи

11. Оценка углового коэффициента регрессии равна 4, а дисперсия этой оценки
равна 4. Значим ли этот коэффициент, если табличные значения:
tN ?n?1, 0.95 = 2.4, tN ?n?1, 0.90 = 1.9?

12. В результате оценивания регрессии x = z? + 1N ? + ? на основе N = 30
наблюдений получены следующие результаты:

1.0z2 ? 0.5z 3 +
x= 1.2z1 + 25.1

Стандартные ошибки оценок () (1.3) (0.06) (2.1)

t-статистика (0.8) () () ( )

95% доверительные интервалы (?1.88; 4.28) () () ( )
Заполните пропуски в скобках.
13. На основе годовых отчетов за 1973–1992 годы о затратах на продукты пи-
тания Q, располагаемом доходе Y , индексе цен на продукты питания P F
и индексе цен на непродовольственные товары P N F , группа исследовате-
лей получила различные регрессионные уравнения для функции спроса на
продукты питания:
? 1.34 ln P F
ln Q = 3.87

(1.45) (?4.54)

R2 = 0.56

? 0.92 ln P F
ln Q = 2.83 + 1.23 ln Y

(1.25) (?2.70) (2.99)

R2 = 0.76

? 0.52 ln P F
ln Q = 2.35 + 0.95 ln Y + 1.54 ln P N F

(1.54) (?1.80) (0.79) (2.45)

R2 = 0.84
В скобках приведены значения t-статистики.
Прокомментируйте полученные оценки коэффициентов и t-статистики, объ-
ясните, почему значения могут различаться в трех уравнениях. Можете ли вы
предложить решение проблемы статистической незначимости коэффициен-
тов в последнем уравнении?
252 Глава 7. Основная модель линейной регрессии

14. Используя приведенные ниже данные, оцените параметры модели xt = ? +
+ ?1 z1t + ?2 z2t + ?t и, делая все необходимые предположения, проверьте
статистическую значимость коэффициента ?1 .
?2 ?2 z1t xt = ?10, z2t xt = ?8,
а) z1t = 10, z2t = 8, z1t z2t = 8,
?? ?? ??
x2 = 20, t = 1, . . . , 5;
?t
2 2
б) z1t = 55, z2t = 28, z1t z2t = 38, z1t xt = 35, z2t xt = 22,
2 = 65.
xt = 15, z1 = 15, z2 = 10, N = 5, x
15. Анализ годовых данных (21 наблюдение) о спросе на некоторый товар привел
к следующим результатам:

Средние Стандартные Парные коэффициенты
отклонения корреляции

z = 51.843
? sz = 9.205 rxz = 0.9158

x = 8.313
? sx = 1.780 rxt = 0.8696
?
t=0 st = 6.055 rzt = 0.9304
z — потребление на душу населения, x — цена с учетом дефлятора, t —
время (годы).
а) Найдите коэффициент при времени в оцененной регрессии x по z и t.
б) Проверьте, будет ли этот коэффициент значимо отличен от нуля.
в) Кратко объясните экономический смысл включения в регрессию вре-
мени в качестве объясняющей переменной.

16. Какие ограничения на параметры уравнения можно проверить с помощью
F -критерия? Написать ограничения с расшифровкой обозначений.

17. Пяти-факторное уравнение линейной регрессии для переменной x оценено
по 31 наблюдению. При этом объясненная и смещенная остаточная дис-
персии соответственно равны 8 и 2. Вычислить коэффициент детерминации
и расчетное значение F -статистики.

18. В регрессии x = z1 ?1 +z2 ?2 +? +? по 5-ти наблюдениям смещенная оценка
остаточной дисперсии равна 1, а дисперсия зависимой переменной равна 2.
Значима ли эта зависимость?

19. По 10 наблюдениям оценено двухфакторное уравнение линейной регрессии,
коэффициент детерминации составляет 90%. При каком уровне доверия это
уравнение статистически значимо? Записать уравнение для нахождения этого
уровня значимости.
253
7.5. Упражнения и задачи

20. Используя следующие данные:
X = (5, 1, ?2, 5, ?4) , Z = (1, 2, 3, 4, 5) ,
и делая все необходимые предположения

а) для X = Z? + 1N ? + ? оценить 95-процентные доверительные интер-
валы для параметров регрессии;
б) проверить значимость коэффициентов регрессии и оценить качество
регрессии с вероятностью ошибки 5%.

21. Пусть X = ?1 Z1 + ?2 Z2 + ?, X = (4, ?2, 4, 0) , Z1 = (1, 1, 2, 2)
и Z2 = 2Z1 . Постройте систему нормальных уравнений и покажите, что
существует бесконечное множество решений для a1 и a2 . Выберите любые
два решения, покажите, что они дают одинаковые расчетные значения X и,
таким образом, одинаковые значения суммы квадратов ошибок.

22. Для уравнения регрессии X = Z? + 15 ? + ? имеются следующие данные:
? ? ? ?
?4? ?1.03 2.08 0.41?
?? ? ?
?? ? ?
?8? ?1.46 2.03?
?? ? ?
2.80
?? ? ?
?? ? ?
X = ?5.5? , Z3 ) = ?1.14 0.98? .
Z = (Z1 Z2 2.30
?? ? ?
?? ? ?
?? ? ?
?5.8? ?1.71 0.81?
3.05
?? ? ?
?? ? ?
7.0 1.06 2.17 1.17

а) Являются ли факторы линейно зависимыми?
б) Найти матрицу коэффициентов корреляции факторных переменных,
рассчитать определитель данной матрицы и сделать вывод о мульти-
коллинеарности факторов.
в) Рассчитать определитель матрицы коэффициентов корреляции фактор-
ных переменных в случае, если из уравнения выводится фактор Z2 .
г) Учесть дополнительную внешнюю информацию: ?1 = 1.5?2 (с помо-
щью подстановки в уравнение регрессии) и найти определитель матрицы
коэффициентов корреляции факторных переменных.
д) Построить точечный прогноз x (xp ) для значений экзогенных перемен-
r
ных zr = (z1r , z2r , z3r ) = (0.8, 1.6, 0.6):
– при использовании исходного уравнения;
– при исключении из уравнения фактора Z2 ;
254 Глава 7. Основная модель линейной регрессии

– при использовании внешней информации из пункта (г).

23. Пусть цены сильно коррелируют с денежной массой и неплатежами. Ко-
эффициент корреляции между денежной массой и неплатежами равен
0.975 R2 = 0.95 . Имеет ли смысл строить регрессию цен на эти два (сильно
мультиколлинеарных) фактора?

24. Модель

x = ?1 z1 + ?2 z2 + ? + ? (1)

2
была оценена по МНК, и был получен коэффициент детерминации R1 , а для
преобразованной модели

x = ?1 z1 + ?2 z2 + ?3 z3 + ? + ? (2)

2
был получен коэффициент детерминации R2 .

а) Объясните, почему R2 не может быть больше, чем R2 . При каких
2
1
условиях они равны?
б) Объясните последствия оценки модели (1), если верной является мо-
дель (2).

25. В регрессии x = ?1 z1 + ? + ? остатки равны (?2, 1, 0, 1). Оценивается
регрессия x = ?1 z1 + ?2 z2 + ? + ?. Привести пример переменной z2 , чтобы
коэффициенты детерминации в обеих регрессиях совпадали.

26. В регрессию x = ?1 z1 + ? + ? добавили переменную z2 . Переменная z2
оказалась совершенно незначимой. Как изменились обычный и скорректи-
рованный коэффициенты детерминации?

27. Коэффициент детерминации в регрессии выпуска продукции по численности
занятых в производстве, оцененной по 12 наблюдениям, равен 0.8. После
введения в регрессию дополнительного фактора — основного капитала —
он вырос до 0.819. Имело ли смысл вводить этот дополнительный фактор?
Ответ обосновать без применения статистических критериев.

28. Дана модель регрессии xi = ?1 zi + ? + ?i .

а) Как оценивается точечный прогноз xN +1 , если известно, что ? = 0?
z2
2 1 + N +1 .
Покажите, что дисперсия ошибок прогноза будет равна ? N
2
zi
i=1
255
7.5. Упражнения и задачи

б) Как оценивается точечный прогноз xN +1 , если известно, что ? = 0?
1
Покажите, что дисперсия ошибок прогноза будет равна ? 2 1 + N .

29. Почему ошибки прогнозирования по линейной регрессии увеличиваются
с ростом горизонта прогноза?

30. Была оценена регрессия x = ?1 z + ? + ? по 50 наблюдениям. Делается
прогноз x в точке z51 . При каком значении z51 доверительный интервал
прогноза будет самым узким?

31. Вычислите предсказанное значение для x и соответствующую интервальную
оценку прогноза при ? = 0.05 в точке z26 = 14, если регрессионная модель
x = 3z + 220 + e построена по 25 наблюдениям, остаточная дисперсия равна
25 и средняя по z равна 14.


Рекомендуемая литература
1. Айвазян С.А. Основы эконометрики. Т.2. — М.: Юнити, 2001. (Гл. 2).

2. Демиденко Е.З. Линейная и нелинейная регрессия. — М.: «Финансы и ста-
тистика», 1981. (Гл. 1, 2, 6).

3. Джонстон Дж. Эконометрические методы. — М.: «Статистика», 1980.
(Гл. 2, 5).

4. Дрейпер Н., Смит Г. Прикладной регрессионный анализ: В 2-х книгах.
Кн.1 — М.: «Финансы и статистика», 1986, (Гл. 1, 2).

5. Кейн Э. Экономическая статистика и эконометрия. Вып. 2. — М.: «Стати-
стика», 1977. (Гл. 10, 11, 14).

6. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика — начальный
курс. — М.: «Дело», 2000. (Гл. 3, 4, 8).

7. (*) Маленво Э. Статистические методы эконометрии. Вып. 1. — М.: «Ста-
тистика», 1975. (Гл. 3, 6).

8. Себер Дж. Линейный регрессионый анализ. — М.: Мир, 1980.

9. Тинтер Г. Введение в эконометрию. — М.: «Статистика», 1965. (Гл. 5).

10. Davidson, Russel, Mackinnon, James. Estimation and Inference in Econo-
metrics, N 9, Oxford University Press, 1993. (Ch. 2).
256 Глава 7. Основная модель линейной регрессии

11. Greene W.H. Econometric Analysis, Prentice-Hall, 2000. (Ch. 6, 7).

12. Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction to the
Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993. (Ch. 5, 21).

13. (*) William E., Griffiths R., Carter H., George G. Judge. Learning and Prac-
ticing econometrics, N 9 John Wiley & Sons, Inc., 1993. (Ch. 8).
Глава 8

Нарушение гипотез основной
линейной модели


8.1. Обобщенный метод наименьших квадратов
(взвешенная регрессия)

Пусть нарушена гипотеза g4 и матрица ковариации ошибок по наблюдени-
ям равна не ? 2 IN , а ? 2 ?, где ? — вещественная симметричная положительно
полуопределенная матрица (см. Приложение A.1.2), т.е. ошибки могут быть кор-
релированы по наблюдениям и иметь разную дисперсию. В этом случае обычные
МНК-оценки параметров регрессии (7.26) остаются несмещенными и состоятель-
ными, но перестают быть эффективными в классе линейных несмещенных оценок.
Ковариационная матрица оценок МНК в этом случае приобретает вид
?1 ?1
Ma = ? 2 Z Z Z ?Z Z Z .


?1
Действительно, a ? E (a) = a ? ? = (Z Z) Z ?, поэтому

?1 ?1
E (a ? E(a)) (a ? E(a)) = (Z Z) Z E (?? ) Z (Z Z) =
?1 ?1
= ? 2 (Z Z) Z ?Z (Z Z) .

(Ср. с выводом формулы (7.28), где ? = ? 2 I .)
258 Глава 8. Нарушение гипотез основной линейной модели

Обычная оценка ковариационной матрицы s2 (Z Z)?1 при этом является сме-
e
щенной и несостоятельной. Как следствие, смещенными и несостоятельными ока-
зываются оценки стандартных ошибок оценок параметров (7.35): чаще всего они
преуменьшаются (т.к. ошибки по наблюдениям обычно коррелированы положи-
тельно), и заключения о качестве построенной регрессии оказываются неоправ-
данно оптимистичными.
По этим причинам желательно применять обобщенный МНК (ОМНК), заклю-
чающийся в минимизации обобщенной остаточной дисперсии
1
e ??1 e.
N
В обобщенной остаточной дисперсии остатки взвешиваются в соответствии
со структурой ковариационной матрицы ошибок. Минимизация приводит к полу-
чению следующего оператора ОМНК-оценивания (ср. с (7.13), где ? = IN ):

a = (Z ??1 Z)?1 Z ??1 X. (8.1)

Для обоснования ОМНК проводится преобразование в пространстве наблю-
дений (см. параграф 6.4) с помощью невырожденной матрицы D размерности
N ? N , такой, что D ?1 D ?1 = ? (такое представление допускает любая ве-
щественная симметричная положительно определенная матрица, см. Приложение
A.1.2):

(8.2)
DX = DZ? + D?.

Такое преобразование возвращает модель в «штатную» ситуацию, поскольку новые
остатки удовлетворяют гипотезе g4:

E(D?? D ) = D? 2 ?D = ? 2 DD?1 D ?1 D = ? 2 IN .

1
Остаточная дисперсия теперь записывается как e D De, а оператор оцени-
N
вания — как a = (Z D DZ)?1 Z D DX.
Что и требовалось доказать, поскольку D D = ??1 .
Обычно ни дисперсии, ни тем более ковариации ошибок по наблюдениям не из-
вестны. В классической эконометрии рассматриваются два частных случая.


8.2. Гетероскедастичность ошибок
Пусть ошибки не коррелированы по наблюдениям, и матрица ? (а вслед за ней
и матрица D) диагональна. Если эта матрица единична, т.е. дисперсии ошибок
259
8.2. Гетероскедастичность ошибок

одинаковы по наблюдениям (гипотеза g4 не нарушена), то имеет место гомос-
кедастичность или однородность ошибок по дисперсии — «штатная» ситуация.
В противном случае констатируют гетероскедастичность ошибок или их неодно-
родность по дисперсии.
2
Пусть var(?i ) = ?i — дисперсия ошибки i-го наблюдения. Гомоскедастич-
2
ность означает, что все числа ?i одинаковы, а гетероскедастичность — что среди
них есть несовпадающие.
Факт неоднородности остатков по дисперсии мало сказывается на качестве оце-
нок регрессии, если эти дисперсии не коррелированы с независимыми факторами.
Это — случай гетероскедастичности «без негативных последствий».

Данное утверждение можно проиллюстрировать в случае, когда в матрице Z все-
го один столбец, т.е. n = 1 и свободный член отсутствует. Тогда формула (7.33)
приобретает вид:
? ?
22
?i zi
1? ?.
E(s2 ) = 2 i
?i ? 2
e
N zi
i
i


Если ситуация штатная и ?i = ? 2 , то правая часть этой формулы преобразуется к ви-
2

N ?1 2 N
s2 оказывается несмещенной оценкой ? 2 , как и было пока-
ду ? ,и
N ?1 e
N
1
зано в параграфе 7.2. Если ?i и zi не коррелированы, то, обозначив ? 2 = 2
?i ,
Ni
можно утверждать, что
22
?2 2
?i zi zi
= ?2 ,
?
i i
2 2
zi zi
i i

т.е. ситуация остается прежней. И только если ?i и zi положительно (или отрица-
тельно) коррелированы, факт гетероскедастичности имеет негативные последствия.
22
?i zi
> ? 2 и, следова-
Действительно, в случае положительной корреляции 2
zi
N
s2 < ? 2 . Обычная «несмещенная» оценка остаточной диспер-
тельно, E
N ?1 e
сии оказывается по математическому ожиданию меньше действительного значе-
ния остаточной дисперсии, т.е. она (оценка остаточной дисперсии) дает основания
для неоправданно оптимистичных заключений о качестве полученной оценки модели.

Следует заметить, что факт зависимости дисперсий ошибок от независимых
факторов в экономике весьма распространен. В экономике одинаковыми по диспер-
сии скорее являются относительные (? z ), а не абсолютные (?) ошибки. Поэтому,
когда оценивается модель на основе данных по предприятиям, которые могут иметь
260 Глава 8. Нарушение гипотез основной линейной модели

и, как правило, имеют различные масштабы, гетероскедастичности с негативными
последствиями просто не может не быть.
Если имеет место гетероскедастичность, то, как правило, дисперсия ошибки
связана с одной или несколькими переменными, в первую очередь — с факторами
регрессии. Пусть, например, дисперсия может зависеть от некоторой перемен-
ной yi , которая не является константой:


?i = ? 2 (yi ),
2
i = 1, . . . , N.


Как правило, в качестве переменной yi берется один из независимых факторов
или математическое ожидание изучаемой переменной, т.е. x0 = Z? (в качестве
его оценки используют расчетные значения изучаемой переменной Za).
В этой ситуации желательно решить две задачи: во-первых, определить, имеет
ли место предполагаемая зависимость, а во-вторых, если зависимость обнаружена,
получить оценки с ее учетом. При этом могут использоваться три группы методов.
Методы первой группы позволяют работать с гетероскедастичностью, которая за-
дается произвольной непрерывной функцией ? 2 (·). Для методов второй группы
функция ? 2 (·) должна быть монотонной. В методах третьей группы функция ? 2 (·)
предполагается известной с точностью до конечного числа параметров.
Примером метода из первой группы является критерий Бартлетта, который
заключается в следующем.
Пусть модель оценена и найдены остатки ei , i = 1, . . . , N . Для расчета bc —
статистики, лежащей в основе применения этого критерия, все множество наблю-
дений делится по какому-либо принципу на k непересекающихся подмножеств.
В частности, если требуется выявить, имеется ли зависимость от некоторой пе-
ременной yi , то все наблюдения упорядочиваются по возрастанию yi , а затем
в соответствии с этим порядком делятся на подмножества. Пусть
k
Nl — количество элементов в l-м подмножестве, Nl = N ;
l=1
s2
— оценка дисперсии остатков в l-м подмножестве, найденная на основе
l
остатков ei ;
k
1
Nl s2
l
N
l=1
— отношение средней арифметической дисперсий к сред-
bs = 1/N
k
s2Nl
l
l=1
ней геометрической; это отношение в соответствии со свойством мажорантности
средних (см. п. 2.2) больше или равно единице, и чем сильнее различаются диспер-
сии по подмножествам, тем оно выше.
261
8.2. Гетероскедастичность ошибок

ei2




2
s2
2 2
s1 s4
2
s5
2
s yi
3




Рис. 8.1


Тогда статистика Бартлетта равна

N
bc = ln bs .
1 1
?
k
l=1 Nl N
1+
3(k ? 1)

При однородности наблюдений по дисперсии (нулевая гипотеза) эта статистика
распределена как ?2 . Проверка нулевой гипотезы проводится по обычному ал-
k?1
горитму.
Если нулевую гипотезу отвергнуть не удалось, т.е. ситуация гомоскедастична,
то исходная оценка модели удовлетворительна. Если же нулевая гипотеза отверг-
нута, то ситуация гетероскедастична.
Принцип построения статистики Бартлетта иллюстрирует рисунок 8.1.
Классический метод второй группы заключается в следующем. Все наблюдения
упорядочиваются по возрастанию некоторой переменной yi . Затем оцениваются
две вспомогательные регрессии: по K «малым» и по K «большим» наблюдениям
(с целью повышения мощности критерия средние N ? 2K наблюдения в расчете
не участвуют, а K можно, например, выбрать равным приблизительно трети N ).
Пусть s2 — остаточная дисперсия в первой из этих регрессий, а s2 — во второй.
1 2
В случае гомоскедастичности ошибок (нулевая гипотеза) отношение двух дисперсий
распределено как

s2
2
? FK?n?1, K?n?1 .
s2
1

Здесь следует применять обычный F -критерий. Нулевая гипотеза о гомос-
кедастичности принимается, если рассчитанная статистика превышает 95%-ный
квантиль F -распределения.
262 Глава 8. Нарушение гипотез основной линейной модели

ei2




2
s2

2
s1
yi


Рис. 8.2


Такой подход применяется, если ожидается, что дисперсия может быть только по-
ложительно коррелирована с переменной yi . Если неизвестно, положительно или
отрицательно коррелирована дисперсия с рассматриваемым фактором, то следу-
ет отклонять нулевую гипотезу как при больших, так и при малых значениях ста-
2
тистики s2 s2 . Можно применить следующий прием: рассчитать статистику как
1
отношение максимальной из дисперсий s2 и s2 к минимальной. Такая статисти-
1 2
ка будет иметь усеченное F -распределение, где усечение происходит на уровне
медианы, и берется правая половина распределения. Отсюда следует, что для до-
стижения, например, 5%-го уровня ошибки, следует взять табличную критиче-
скую границу, соответствующую, 2.5%-му правому хвосту обычного (не усеченного)
F -распределения. Если указанная статистика превышает данную границу, то нуле-
вая гипотеза о гомоскедастичности отвергается.

Данный метод известен под названием метода Голдфельда—Квандта.
Можно применять упрощенный вариант этого критерия, когда дисперсии s2 и2
s2 считаются на основе остатков из проверяемой регрессии. При этом s2 и s2 не
2 1 2
будут независимы, и их отношение будет иметь F -распределение только прибли-
женно. Этот метод иллюстрирует рисунок 8.2.
Для того чтобы можно было применять методы третьей группы, требуется
обладать конкретной информацией о том, какой именно вид имеет гетероскеда-
стичность.

Так, например, если остатки прямо пропорциональны значениям фактора (n = 1):

x = z? + ? + z?,

и ? удовлетворяет необходимым гипотезам, то делением обеих частей уравнения
на z ситуация возвращается в «штатную»:
x 1
= ? + ? + ?,
Z Z
263
8.2. Гетероскедастичность ошибок

ei2




2
s2

2
s1
yi


Рис. 8.3


в которой, правда, угловой коэффициент и свободный член меняются местами. Тем
самым применяется преобразование в пространстве наблюдений такое, что диаго-
нальные элементы матрицы D равны 1 zi .

Если зависимость дисперсии от других переменных известна не точно, а только
с точностью до некоторых неизвестных параметров, то для проверки гомоскеда-
стичности следует использовать вспомогательные регрессии.
Так называемый метод Глейзера состоит в следующем. Строится регрессия
модулей остатков |ei | на константу и те переменные, которые могут быть коррели-
рованными с дисперсией (например, это может быть все множество независимых
факторов или какое-то их подмножество). Если регрессия оказывается статисти-
чески значимой, то гипотеза гомоскедастичности отвергается.
Построение вспомогательной регрессии от некоторой переменной yi показано
на рисунке 8.3.
Другой метод (критерий Годфрея) использует аналогичную вспомогательную
регрессию, в которой в качестве зависимой переменной используются квадраты
остатков e2 .
i
Если с помощью какого-либо из перечисленных критериев (или других анало-
гичных критериев) проверены различные варианты возможной зависимости и ну-
левая гипотеза во всех случаях не была отвергнута, то делается вывод, что ситуа-
ция гомоскедастична или гетероскедастична без негативных последствий и что для
оценки параметров модели можно использовать обычный МНК. Если же нуле-
вая гипотеза отвергнута и поэтому, возможно, имеет место гетероскедастичность
с негативными последствиями, то желательно получить более точные оценки, учи-
тывающие гетероскедастичность.
Это можно сделать, используя для оценивания обобщенный МНК (см. уравне-
ние (8.2)). Соответствующее преобразование в пространстве наблюдений состоит
264 Глава 8. Нарушение гипотез основной линейной модели

в том, чтобы каждое наблюдение умножить на di , т.е. требуется оценить обычным
методом наименьших квадратов преобразованную регрессию с переменными di Xi
и di Zi . При этом не следует забывать, что если матрица факторов Z содержит
свободный член, то его тоже нужно умножить на di , поэтому вместо свободного
члена в регрессии появится переменная вида (d1 , . . . , dN ). Это приводит к тому,
что стандартные статистические пакеты выдают неверные значения коэффициен-
та детерминации и F -статистики. Чтобы этого не происходило, требуется поль-
зоваться специализированными процедурами для расчета взвешенной регрессии.
Описанный метод получил название взвешенного МНК, поскольку он равнозначен
N
d2 e2 .
минимизации взвешенной суммы квадратов остатков ii
i=1
Чтобы это можно было осуществить, необходимо каким-то образом получить
оценку матрицы D, используемой для преобразования в пространстве наблюдений.
Перечисленные в этом параграфе методы дают возможность не только проверить
гипотезу об отсутствии гетероскедастичности, но и получить определенные оценки
матрицы D (возможно, не очень хорошие).
Если S 2 — оценка матрицы ? 2 ? , где S 2 — диагональная матрица, состав-
ленная из оценок дисперсий, то S ?1 (матрица, обратная к ее квадратному кор-
ню) — оценка матрицы ?D.
Так, после проверки гомоскедастичности методом Глейзера в качестве диа-
гональных элементов матрицы S ?1 можно взять 1 |e |c , где |ei |c — расчетные
i
значения |ei |. Если используются критерии Бартлетта или Голдфельда—Квандта,
то наблюдения разбиваются на группы, для каждой из которых есть оценка дис-
персии, s2 . Тогда для этой группы наблюдений в качестве диагональных элементов
l
матрицы S ?1 можно взять 1 sl .
В методе Голдфельда—Квандта требуется дополнительно получить оценку дис-
персии для пропущенной средней части наблюдений. Эту оценку можно получить
непосредственно по остаткам пропущенных налюдений или как среднее (s2 +s2 )/2.
1 2


Если точный вид гетероскедастичности неизвестен, и, как следствие, взвешенный
МНК неприменим, то, по крайней мере, следует скорректировать оценку ковариа-
ционной матрицы оценок параметров, оцененных обычным МНК, прежде чем про-
верять гипотезы о значимости коэффициентов. (Хотя при использовании обычного
МНК оценки будут менее точными, но как уже упоминалось, они будут несмещенны-
ми и состоятельными.) Простейший метод коррекции состоит в замене неизвестной
ковариационной матрицы ошибок ? 2 ? на ее оценку S 2 , где S 2 — диагональная
матрица с типичным элементом e2 (т.е. квадраты остатков используются как оценки
i
дисперсий). Тогда получается следующая скорректированная оценка ковариацион-
ной матрицы a (оценка Уайта или устойчивая к гетероскедастичности оценка):
?1 ?1
Z S 2 Z (Z Z)
(Z Z) .
265
8.3. Автокорреляция ошибок

8.3. Автокорреляция ошибок
Если матрица ковариаций ошибок не является диагональной, то говорят об ав-
токорреляции ошибок. Обычно при этом предполагают, что наблюдения однород-
ны по дисперсии, и их последовательность имеет определенный смысл и жестко
фиксирована. Как правило, такая ситуация имеет место, если наблюдения про-
водятся в последовательные моменты времени. В этом случае можно говорить
о зависимостях ошибок по наблюдениям, отстоящим друг от друга на 1, 2, 3 и т.д.
момента времени. Обычно рассматривается частный случай автокорреляции, когда
коэффициенты ковариации ошибок зависят только от расстояния во времени меж-
ду наблюдениями; тогда возникает матрица ковариаций, в которой все элементы
каждой диагонали (не только главной) одинаковы1 .
Поскольку действие причин, обуславливающих возникновение ошибок, доста-
точно устойчиво во времени, автокорреляции ошибок, как правило, положительны.
Это ведет к тому, что значения остаточной дисперсии, полученные по стандартным
(«штатным») формулам, оказываются ниже их действительных значений. Что, как
отмечалось и в предыдущем пункте, чревато ошибочными выводами о качестве
получаемых моделей.

Это утверждение иллюстрируется рисунком 8.4 (n = 1).
На этом рисунке:
a — линия истинной регрессии. Если в первый момент времени истинная ошибка
отрицательна, то в силу положительной автокорреляции ошибок все облако наблю-
дений сместится вниз, и линия оцененной регрессии займет положение b.
Если в первый момент времени истинная ошибка положительна, то по тем же причи-
нам линия оцененной регрессии сместится вверх и займет положение c. Поскольку
1
В теории временных рядов это называется слабой стационарностью.


x
c

a


b




время


Рис. 8.4
266 Глава 8. Нарушение гипотез основной линейной модели

ошибки случайны и в первый момент времени они примерно с равной вероятно-
стью могут оказаться положительными или отрицательными, то становится ясно,
насколько увеличивается разброс оценок регрессии вокруг истинных по сравнению
с ситуацией без (положительной) автокорреляции ошибок.

Типичный случай автокорреляции ошибок, рассматриваемый в классической
эконометрии, — это линейная авторегрессия ошибок первого порядка AR(1):

?i = ??i?1 + ?i ,

где ? — остатки, удовлетворяющие обычным гипотезам;
? — коэффициент авторегрессии первого порядка.
Коэффициент ? вляется также коэффициентом автокорреляции (первого по-
рядка).

Действительно, по определению, коэффициент авторегрессии равен (как МНК-
оценка):
cov(?i , ?i?1 )
?= ,
var(?i?1 )

но, в силу гомоскедастичности, var(?i?1 ) = var(?i )var(?i?1 ) и, следовательно,
?, также по определению, является коэффициентом автокорреляции.

Если ? = 0, то ?i = ?i и получаем «штатную» ситуацию. Таким образом,
проверку того, что автокорреляция отсутствует, можно проводить как проверку
нулевой гипотезы H0 : ? = 0 для процесса авторегрессии 1-го порядка в ошибках.
Для проверки этой гипотезы можно использовать критерий Дарбина—
Уотсона или DW-критерий. Проверяется нулевая гипотеза о том, что автокорре-
ляция ошибок первого порядка отсутствует. (При автокорреляции второго и более
высоких порядков его мощность может быть мала, и применение данного критерия
становится ненадежным.)
Пусть была оценена модель регрессии и найдены остатки ei , i = 1, . . . , N .
Значение статистики Дарбина—Уотсона (отношения фон Неймана), или DW-ста-
тистики, рассчитывается следующим образом:
N
(ei ? ei?1 )2
i=2
dc = (8.3)
.
N
e2
i
i=1

Оно лежит в интервале от 0 до 4, в случае отсутствия автокорреляции ошибок
приблизительно равно 2, при положительной автокорреляции смещается в мень-
267
8.3. Автокорреляция ошибок




2 4
0
dL dU 4 dU 4 dL

Рис. 8.5


шую сторону, при отрицательной — в большую сторону. Эти факты подтвержда-
ются тем, что при больших N справедливо следующее соотношение:

dc ? 2(1 ? r), (8.4)

где r — оценка коэффициента авторегрессии.

Минимального значения величина dc достигает, если коэффициент авторегрессии
равен +1. В этом случае ei = e, i = 1, . . . , N , и dc = 0. Если коэффициент
авторегрессии равен ?1 и ei = (?1)i e, i = 1, . . . , N , то величина dc достигает
N ?1
значения 4 (можно достичь и более высокого значения подбором остатков),
N
которое с ростом N стремится к 4. Формула (8.4) следует непосредственно из (8.3)
после элементарных преобразований:
N N N
e2 e2
ei?1 ei
i i?1
i=2
? 2 i=2N i=2
dc = + ,
N N
e2 e2 e2
i i i
i=1 i=1 i=1

поскольку первое и третье слагаемые при больших N близки к единице, а второе
слагаемое является оценкой коэффициента автокорреляции (умноженной на ?2).

Известно распределение величины d, если ? = 0 (это распределение близко
к нормальному), но параметры этого распределения зависят не только от N и n,
как для t- и F -статистик при нулевых гипотезах. Положение «колокола» функции
плотности распределения этой величины зависит от характера Z. Тем не менее,
Дарбин и Уотсон показали, что это положение имеет две крайние позиции (рис. 8.5).
Поэтому существует по два значения для каждого (двустороннего) квантиля,
соответствующего определенным N и n: его нижняя dL и верхняя dU границы.
Нулевая гипотеза H0 : ? = 0 принимается, если dU dc 4 ? dU ; она отвергается
в пользу гипотезы о положительной автокорреляции, если dc < dL , и в пользу
268 Глава 8. Нарушение гипотез основной линейной модели

гипотезы об отрицательной автокорреляции, если dc > 4 ? dL . Если dL dc < dU
или 4?dU < dc 4?dL , вопрос остается открытым (это — зона неопределенности
DW-критерия).
Пусть нулевая гипотеза отвергнута. Тогда необходимо дать оценку матрицы ?.
Оценка r параметра авторегрессии ? может определяться из приближенного
равенства, следующего из (8.4):

dc
r ?1? ,
2
или рассчитываться непосредственно из регрессии e на него самого со сдвигом на
одно наблюдение с принятием «круговой» гипотезы, которая заключается в том,
что eN +1 = e1 .
Оценкой матрицы ? является
? ?
r2 · · · r N ?1 ?
?1 r
? ?
? ?
?r N ?2 ?
···
? ?
1 r r
1? ?
? ?
?2 r N ?3 ? ,
···
2? r r 1 ?
1?r ? ?
?. .?
. . ..
?. . . .?
.
?. . . .?
? ?
r N ?1 r N ?2 r N ?3 · · · 1

а матрица D преобразований в пространстве наблюдений равна
? ?
v
? 1 ? r2 0 · · · 0?
0
? ?
? ?
? ?r 0?
0 ···
? ?
1
? ?
? ?
? 0? .
?r 1 · · ·
0
? ?
? ?
? .?
. . . ..
. . . .?
? .
. . . .?
?
? ?
0 ··· 1
0 0

Для преобразования в пространстве наблюдений, называемом в данном слу-
чае авторегрессионным, используют обычно указанную матрицу без 1-й строки,
что ведет к сокращению количества наблюдений на одно. В результате такого пре-
образования из каждого наблюдения, начиная со 2-го, вычитается предыдущее,
умноженное на r, теоретическими остатками становятся ? , которые, по предпо-
ложению, удовлетворяют гипотезе g4.
269
8.3. Автокорреляция ошибок

После этого преобразования снова оцениваются параметры регрессии. Если
новое значение DW-статистики неудовлетворительно, то можно провести следую-
щее авторегрессионное преобразование.
Обобщает процедуру последовательных авторегрессионных преобразований
метод Кочрена—Оркатта, который заключается в следующем.
Для одновременной оценки r, a и b используется критерий ОМНК (в обозна-
чениях исходной формы уравнения регрессии):
1N
((xi ? rxi?1 ) ? (zi ? rzi?1 )a ? (1 ? r)b)2 > min,
N i=2
где zi — n-вектор-строка значений независимых факторов в i-м наблюдении
(i-строка матрицы Z).
Поскольку производные функционала по искомым величинам нелинейны от-
носительно них, применяется итеративная процедура, на каждом шаге которой
сначала оцениваются a и b при фиксированном значении r предыдущего шага
(на первом шаге обычно r = 0), а затем — r при полученных значениях a и b.
Процесс, как правило, сходится.
Как и в случае гетероскедастичности, можно не использовать модифицированные
методы оценивания (тем более, что точный вид автокорреляции может быть неиз-
вестен), а использовать обычный МНК и скорректировать оценку ковариационной
матрицы параметров. Наиболее часто используемая оценка Ньюи—Уэста (устой-
чивая к гетероскедастичности и автокорреляции) имеет следующий вид:
?1 ?1
(Z Z) Q (Z Z) ,
где
N L N
e2
Q= + ?k ei ei?k (zi zi?k + zi?k zi ),
i
i=1 k=1 i=k+1

а ?k — понижающие коэффициенты, которые Ньюи и Уэст предложили рассчи-
k
тывать по формуле ?k = 1 ? . При k > L понижающие коэффициенты
L+1
становятся равными нулю, т.е. более дальние корреляции не учитываются
Обоснование этой оценки достаточно сложно2 . Заметим только, что если заменить
попарные произведения остатков соответствующими ковариациями и убрать пони-
жающие коэффициенты, то получится формула ковариационной матрицы оценок
МНК.
Приведенная оценка зависит от выбора параметра отсечения L. В настоящее вре-
мя не существует простых теоретически обоснованных методов для такого выбора.
2/9
На практике можно ориентироваться на грубое правило L = 4 T 100 .

2
Оно связано с оценкой спектральной плотности для многомерного временного ряда.
270 Глава 8. Нарушение гипотез основной линейной модели

8.4. Ошибки измерения факторов
Пусть теперь нарушается гипотеза g2, и независимые факторы наблюдаются
с ошибками. Предполагается, что изучаемая переменная зависит от истинных зна-
чений факторов (далее в этом пункте используется сокращенная форма уравнения
регрессии), z 0 , а именно:
?

x = z 0 ? + ?,
??

но истинные значения неизвестны, а вместо этого имеются наблюдения над неко-
торыми связанными с z 0 переменными z :
? ?

z = z 0 + ?z ,
??

где ?z — вектор-строка длиной n ошибок наблюдений.
В разрезе наблюдений:

X = Z 0 ? + ?,
? ?
Z = Z 0 + ?z ,
? ?

где Z 0 и ?z — соответствующие N ? n-матрицы значений этих величин по на-
?
блюдениям (т.е., в зависимости от контекста, ?z обозначает вектор или матрицу
ошибок).
Предполагается, что ошибки факторов по математическому ожиданию равны
нулю, истинные значения регрессоров и ошибки независимы друг от друга (по край-
ней мере не коррелированы друг с другом) и известны матрицы ковариации:

E(?0 , ?) = 0, E(?0 , ?z ) = 0,
E(?z ) = 0, z z
(8.5)
E(?0 , z 0 ) = M 0 , E(?z , ?z ) = ?, E(?z , ?) = ?.
z?

Важно отметить, что эти матрицы и вектора ковариации одинаковы во всех
наблюдениях, а ошибки в разных наблюдениях не зависят друг от друга, т.е. речь,
фактически, идет о «матричной» гомоскедастичности и отсутствии автокорреляции
ошибок.
Через наблюдаемые переменные x и z уравнение регрессии записывается
? ?
в следующей форме:

x = z ? + ? ? ?z ?. (8.6)
??

В такой записи видно, что «новые» остатки не могут быть независимыми от факто-
ров-регрессоров z , т.е. гипотезы основной модели регрессии нарушены. В рамках
?
271
8.4. Ошибки измерения факторов

сделанных предположений можно доказать, что приближенно

E(a) ? (M 0 + ?)?1 (M 0 ? + ?) = ? + (M 0 + ?)?1 (? ? ??), (8.7)

т.е. МНК-оценки теряют в такой ситуации свойства состоятельности и несмещен-
ности3 , если ? = ?? (в частности, когда ошибки регрессии и ошибки факторов не
коррелированны, т.е. когда ? = 0, а ? и ? отличны от нуля).

Для обоснования (8.7) перейдем к теоретическому аналогу системы нормальных
уравнений, для чего обе части соотношения (8.6) умножаются на транспонирован-
ную матрицу факторов:

E (? x) = E (? z ) ? + E (? ?) ? E (? ?z ) ?.
z? z? z z

Здесь, как несложно показать, пользуясь сделанными предположениями,

E (? z ) = M 0 + ?,
z?
E (? ?) = ?,
z
E (? ?z ) = ?,
z

Поэтому

E (? x) = E (? z ) ? + ? ? ??
z? z?

или
?1
?1
E (? x) = ? + M 0 + ? (? ? ??) .
E (? z )
z? z?

Левая часть приближенно равна E(a).
1?? 1?
Действительно, a = M ?1 m, где M = N Z Z и m = N Z x . Выборочные ковари-
?
ационные матрицы M и m по закону больших чисел с ростом числа наблюдений
сходятся по вероятности к своим теоретическим аналогам:
p p
M ?>E (? z ) и m ?>E (? x) .
z? z?

По свойствам сходимости по вероятности предел функции равен функции от предела,
если функция непрерывна. Поэтому
p
?1
?1
E (? x) = (M 0 + ?)?1 (M 0 ? + ?).
m ?> E (? z )
a=M z? z?

Существуют разные подходы к оценке параметров регрессии в случае наличия
ошибок измерения независимых факторов. Здесь приводятся два из них.
3
Они смещены даже асимптотически, т.е. при стремлении количества наблюдений к бесконечно-
сти смещение не стремится к нулю.
272 Глава 8. Нарушение гипотез основной линейной модели

а) Простая регрессия. Если имеется оценка W ковариационной матрицы ?
и w — ковариационного вектора ? , то можно использовать следующий оператор

<<

стр. 10
(всего 28)

СОДЕРЖАНИЕ

>>