<<

стр. 12
(всего 28)

СОДЕРЖАНИЕ

>>


Нормальное
Логистическое
распределение
распределение



Распределение
экстремального
значения




–4 –3.1 –2.2 –1.3 –0.4 0.5 1.4 2.3 3.2 4.1 5

Рис. 9.1


Можно рассматривать модель с биномиальной зависимой переменной как мо-
дель регрессии:

xi = F (zi ?) + ?i ,

где ошибки ?i = xi ? F (zi ?) имеют нулевое математическое ожидание и незави-
симы. Каждая из ошибок ?i может принимать только два значения, и поэтому их
распределение мало похоже на нормальное. Кроме того, имеет место гетероскеда-
стичность. Обозначим

pi = pi (?) = F (zi ?).

В этих обозначениях дисперсия ошибки ?i равна

var(?i ) = E (xi ? pi )2 = E(x2 ) ? 2pi E(xi ) + p2 = pi (1 ? pi ).
i i


При выводе этой формулы мы воспользовались тем, что x2 = xi и E(xi ) = pi .
i
Несмотря на эти нарушения стандартных предположений, данную модель, ко-
торая в общем случае представляет собой модель нелинейной регрессии, можно
оценить нелинейным методом наименьших квадратов, минимизируя по ? следую-
щую сумму квадратов:
N
(xi ? pi (?))2 .
i=1

Для минимизации такой суммы квадратов требуется использовать какой-либо
алгоритм нелинейной оптимизации. Этот метод дает состоятельные оценки ко-
эффициентов ?. Гетероскедастичность приводит к двум важным последствиям.
Во-первых, оценки параметров будут неэффективными (не самыми точными). Во-
вторых, что более серьезно, ковариационная матрица коэффициентов, стандартные
300 Глава 9. Целочисленные переменные в регрессии

ошибки коэффициентов и t-статистики будут вычисляться некорректно (если ис-
пользовать стандартные процедуры оценивания нелинейной регрессии и получения
в ней оценки ковариационной матрицы оценок параметров).
В частном случае модели линейной вероятности имеем линейную регрессию
с гетероскедастичными ошибками:
xi = zi ? + ?i .

Для такой модели можно предложить следующую процедуру, делающую по-
правку на гетероскедастичность:
1) Оцениваем модель обычным МНК и получаем оценки a.
2) Находим оценки вероятностей:
pi = zi a.

3) Используем взвешенную регрессию и получаем оценки a? .
Чтобы оценить взвешенную регрессию, следует разделить каждое наблюде-
ние исходной модели на корень из оценки дисперсии ошибки, т.е. на величину
pi (1 ? pi ) = zi a(1 ? zi a):

xi zi ?i
= ?+ ,
pi (1 ? pi ) pi (1 ? pi ) pi (1 ? pi )
и далее применить к этой преобразованной регрессии обычный метод наименьших
квадратов. При использовании данного метода получим асимптотически эффек-
тивные оценки a? и корректную ковариационную матрицу этих оценок, на основе
которой можно рассчитать t -статистики.
Те же идеи дают метод оценивания модели с произвольной гладкой функцией
F (·). Для этого можно использовать линеаризацию в точке 0:
F (zi ?) ? F (0) + f (0)zi ?,
где f (·) — производная функции F (·) (плотность распределения). Тогда получим
следующую приближенную модель:
xi ? F (0) + f (0) zi ? + ?i
или
xi ? zi ? + ?i ,
где
xi ? F (0) ?i
и ?=
xi = ,
f (0) f (0)
301
9.2. Модели с биномиальной зависимой переменной

которую можно оценить с помощью только что описанной процедуры. Для симмет-
ричных относительно нуля распределений F (0) = 0, 5. В случае логита, учитывая
?(0) = 1 4, получаем

xi = 4xi ? 2,
v
а в случае пробита, учитывая ?(0) = 1 2? , получаем
v
xi = 2?(xi ? 0, 5).

Таким образом, можно получить приближенные оценки для коэффициентов
пробита и логита, используя в качестве зависимой переменной регрессии вместо
переменной, принимающей значения 0 и 1, переменную, которая принимает зна-
чения ±2 для логита и ± ? 2 для пробита ( ? 2 ? 1, 25). Ясно, что это хорошее
приближение только когда величины zi ? близки к нулю, то есть когда модель
плохо описывает данные.
Приближенные оценки можно получить также по группированным наблюдени-
ям. Предположим, что все наблюдения разбиты на несколько непересекающихся
подгрупп, в пределах каждой из которых значения факторов zi примерно одинако-
вы. Введем обозначения:
1
pj =
? xi
Nj i?I
j

и
1
zj =
? zi ,
Nj i?I
j


где Ij — множество наблюдений, принадлежащих j-й группе, Nj — количество
наблюдений в j-й группе. Величина pj является оценкой вероятности получения
?
единицы в случае, когда факторы принимают значение zj , т.е.
?

pj ? F (?j ?),
? z

откуда

F ?1 (?j ) ? zj ?.
p ?

Получаем модель регрессии, в которой в качестве зависимой переменной вы-
ступает F ?1 (?j ), а в качестве факторов — zj . В частном случае логистического
p ?
распределения имеем:

pj
?
??1 (?j ) = ln
p ,
1 ? pj
?
302 Глава 9. Целочисленные переменные в регрессии

т.е. для логита зависимая переменная представляет собой логарифм так называе-
мого «соотношения шансов».
Чтобы такое приближение было хорошим, следует правильно сгруппировать
наблюдения. При этом предъявляются два, вообще говоря, противоречивых тре-
бования:
– в пределах каждой группы значения факторов должны быть примерно одина-
ковы (идеальный случай — когда в пределах групп zi совпадает, что вполне
может случиться при анализе экспериментальных данных),
– в каждой группе должно быть достаточно много наблюдений.
Описанный метод лучше всего подходит тогда, когда в модели имеется один
объясняющий фактор (и константа), поскольку в этом случае проще группировать
наблюдения.
В настоящее время в связи с развитием компьютерной техники для оценивания
моделей с биномиальной зависимой переменной, как правило, используется метод
максимального правдоподобия, рассмотрение которого выходит за рамки данной
главы.

9.2.3. Интерпретация результатов оценивания моделей
с биномиальной зависимой переменной

Предположим, что каким-либо методом получен вектор оценок a. Как в этом
случае можно интерпретировать результаты и судить о качестве модели?
Для логита коэффициенты a описывают влияние факторов на логарифм соот-
ношения шансов. В общем случае по знаку коэффициентов можно судить о направ-
лении зависимости, а по соответствующим t-статистикам — о наличии или отсут-
ствии зависимости. Однако интерпретировать коэффициенты в содержательных
терминах затруднительно. Поэтому помимо коэффициентов полезно рассмотреть,
как влияют факторы на вероятность получения единицы:
?F (za)
= f (za)aj .
?zj
Эти величины называют маргинальными значениями. Ясно, что маргинальные
значения зависят от точки z, в которой они рассматриваются. Обычно берут z на
среднем уровне по имеющимся наблюдениям: z = z . Другой распространенный
?
подход состоит в том, чтобы вычислить маргинальные значения во всех точках
zi , i = 1, . . . , N , и по ним вычислить средние маргинальные значения:
N
1
f (zi a) aj .
N i=1
303
9.2. Модели с биномиальной зависимой переменной


Таблица 9.1

Предсказано

0 1 Сумма

?? ?
На самом 0

?? ?
деле 1

Сумма ? ? ?




Величину xc = zi a можно назвать по аналогии с линейной регрессией расчет-
i
ными значениями. При za > 0 для логита и пробита предсказанная вероятность
единицы, F (za), превосходит 1 2, поэтому для такого наблюдения более вероятно
наблюдать 1, чем 0. Таким образом, уравнение za = 0 задает ту гиперплоскость,
которой разделяются две группы точек — те точки, для которых предсказано x = 0,
и те точки, для которых предсказано x = 1. Поэтому наглядно о качестве модели
можно судить по диаграмме xi по xc : чем лучше разделены две группы точек,
i
тем более качественна модель. О качестве модели можно судить также по гра-
фику оценки E(x) по xc . Этот график в случае «хорошей» модели должен быть
«крутым» в нуле.
На этих двух графиках (рис. 9.2) слева внизу и справа вверху расположены
правильно предсказанные точки, а слева вверху и справа внизу — неправильно.
То же самое можно представить таблицей 9.1.
Понятно, что «хорошая» модель должна давать высокий процент правильных
предсказаний (в таблице они лежат на диагонали).



1 1




0 0


Хорошее качество модели Плохое качество модели

Рис. 9.2
304 Глава 9. Целочисленные переменные в регрессии

9.3. Упражнения и задачи
Упражнение 1

1.1. Пусть Z G = {zi1 zi2 } — фиктивная переменная, где zi1 равно единице, если
GG G

фактор в i -м наблюдении относится к годам войны (1941, . . . , 1945), и нулю
G
в противном случае. Как выглядит вектор zi2 ? Оцените двумя способами
модель X = Z? + Z 0 ? 0 + Z G ? + ? с помощью искусственно созданных
??
данных из табл. 9.2, рассмотрев в качестве X столбец X1 :
G
а) исключив столбец z1 в исходной форме регрессии;
G
б) исключив в исходной форме регрессии параметр при переменной z1 .

Убедитесь, что значения коэффициентов исходной регрессии по способам
а) и б) совпадают.

1.2. Запишите модель регрессии, в которой качественный фактор влияет не толь-
ко на значение свободного члена регрессии, но и на коэффициент регрессии
при факторе Z1 .
Посчитайте матрицы Z1 ?Z G и Z1 ?[Z 0 , Z G ] . Оцените данную модель ре-
?? ?
?
грессии на данных таблицы 9.2, рассмотрев в качестве X столбец X2 спо-
собами а) и б).


Упражнение 2

Самостоятельно подберите ряды наблюдений и охарактеризуйте цены на рос-
сийском вторичном рынке жилья в зависимости от жилой и нежилой площади, пло-
щади кухни, местоположения квартиры по районам города, расположения на эта-
жах, количество комнат, наличия телефона, балкона, лифта и т.д.


Упражнение 3

В таблице 9.3 приводится данные о голосовании по поводу увеличения налогов
на содержание школ в городе Троя штата Мичиган в 1973 г. Наблюдения отно-
сятся к 95 индивидуумам: результаты голосования и различные характеристики
индивидов.
Pub = 1, если хотя бы один ребенок посещает государственную школу, иначе 0,
Priv = 1, если хотя бы один ребенок посещает частную школу, иначе 0,
Years = срок проживания в данном районе,
Teach = 1, если работает учителем, иначе 0,
305
9.3. Упражнения и задачи


Таблица 9.2

Годы Годы
X1 X2 Z1 Z2 X1 X2 Z1 Z2

1935 1945 24.95 19.93 200.70 32.00
2.81 2.81 117.10 9.70

1936 10.66 10.66 201.60 10.40 1946 16.44 16.44 220.80 34.60

1937 1947 15.04 15.04 165.60 45.60
4.16 4.16 280.30 11.80

1938 1948 15.44 15.44 160.40 54.30
8.30 8.30 204.00 15.60

1939 16.94 16.94 225.60 17.20 1949 23.43 23.43 61.80 55.50

1940 1950
5.01 5.01 213.20 18.60 6.98 6.98 161.10 64.70

1941 35.49 30.90 183.40 22.10 1951 18.61 18.61 181.90 67.10

1942 26.76 22.79 158.80 28.80 1952 22.74 22.74 207.90 72.60

1943 34.88 30.50 174.90 32.00 1953 24.63 24.63 237.10 80.00

1944 35.27 31.06 168.70 32.10 1954 31.35 31.35 275.90 88.90



LnInc = логарифм годового дохода семьи в долларах,
PropTax = логарифм налогов на имущество в долларах за год (заменяет плату
за обучение — плата зависит от имущественного положения),
Yes = 1, если человек проголосовал на референдуме «за», 0, если «против».
Зависимая переменная — Yes. В модель включаются все перечисленные фак-
торы, а также квадрат Years.


3.1. Получите приближенные оценки для логита и пробита с помощью линейной
регрессии

3.2. Вычислите коэффициенты логита через коэффициенты пробита и сравните.

3.3. Для логита найдите маргинальные значения для Teach, LnInc и PropTax при
среднем уровне факторов.

3.4. Постройте график вероятности голосования «за» в зависимости от Years при
среднем уровне остальных факторов.

3.5. Постройте аналогичный график маргинального значения Years.
306 Глава 9. Целочисленные переменные в регрессии



Таблица 9.3. (Источник: R. Pindyck and D. Rubinfeld, Econometric Models
and Economic Forecasts, 1998, Fourth Edition, Table 11.8, p. 332)

Номер Pub Priv Years Teach LnInc PropTax Yes
1 1 0 10 1 9.77 7.0475 1
2 1 0 8 0 10.021 7.0475 0
3 1 0 4 0 10.021 7.0475 0
4 1 0 13 0 9.4335 6.3969 0
5 1 0 3 1 10.021 7.2792 1
6 1 0 5 0 10.463 7.0475 0
7 0 0 4 0 10.021 7.0475 0
8 1 0 5 0 10.021 7.2793 1
9 1 0 10 0 10.222 7.0475 0
10 1 0 5 0 9.4335 7.0475 1
11 1 0 3 0 10.021 7.0475 1
12 1 0 30 0 9.77 6.3969 0
13 1 0 1 0 9.77 6.7452 1
14 1 0 3 0 10.021 7.0475 1
15 1 0 3 0 10.82 6.7452 1
16 1 0 42 0 9.77 6.7452 1
17 1 0 5 1 10.222 7.0475 1
18 1 0 10 0 10.021 7.0475 0
19 1 0 4 0 10.222 7.0475 1
20 1 1 4 0 10.222 6.7452 1
21 1 0 11 1 10.463 7.0475 1
22 0 0 5 0 10.222 7.0475 1
23 1 0 35 0 9.77 6.7452 1
24 1 0 3 0 10.463 7.2793 1
25 1 0 16 0 10.021 6.7452 1
26 0 1 7 0 10.463 7.0475 0
27 1 0 5 1 9.77 6.7452 1
28 1 0 11 0 9.77 7.0475 0
29 1 0 3 0 9.77 6.7452 0
30 1 1 2 0 10.222 7.0475 1
31 1 0 2 0 10.021 6.7452 1
32 1 0 2 0 9.4335 6.7452 0
33 1 0 2 1 8.294 7.0475 0
34 0 1 4 0 10.463 7.0475 1
307
9.3. Упражнения и задачи



Таблица 9.3. (продолжение)

Номер Pub Priv Years Teach LnInc PropTax Yes
35 1 0 2 0 10.021 7.0475 1
36 1 0 3 0 10.222 7.2793 0
37 1 0 3 0 10.222 7.0475 1
38 1 0 2 0 10.222 7.4955 1
39 1 0 10 0 10.021 7.0475 0
40 1 0 2 0 10.222 7.0475 1
41 1 0 2 0 10.021 7.0475 0
42 1 0 3 0 10.82 7.4955 0
43 1 0 3 0 10.021 7.0475 1
44 1 0 3 0 10.021 7.0475 1
45 1 0 6 0 10.021 6.7452 1
46 1 0 2 0 10.021 7.0475 1
47 1 0 26 0 9.77 6.7452 0
48 0 1 18 0 10.222 7.4955 0
49 0 0 4 0 9.77 6.7452 0
50 0 0 6 0 10.021 7.0475 0
51 0 0 12 0 10.021 6.7452 1
52 1 0 49 0 9.4335 6.7452 1
53 1 0 6 0 10.463 7.2793 1
54 0 1 18 0 9.77 7.0475 0
55 1 0 5 0 10.021 7.0475 1
56 1 0 6 0 9.77 5.9915 1
57 1 0 20 0 9.4335 7.0475 0
58 1 0 1 1 9.77 6.3969 1
59 1 0 3 0 10.021 6.7452 1
60 1 0 5 0 10.463 7.0475 0
61 1 0 2 0 10.021 7.0475 1
62 1 1 5 0 10.82 7.2793 0
63 1 0 18 0 9.4335 6.7452 0
64 1 0 20 1 9.77 5.9915 1
65 0 0 14 0 8.9227 6.3969 0
66 1 0 3 0 9.4335 7.4955 0
67 1 0 17 0 9.4335 6.7452 0
68 1 0 20 0 10.021 7.0475 0
308 Глава 9. Целочисленные переменные в регрессии




Таблица 9.3. (продолжение)

Номер Pub Priv Years Teach LnInc PropTax Yes
69 1 1 3 0 10.021 7.0475 1
70 1 0 2 0 10.021 7.0475 1
71 0 0 5 0 10.222 7.0475 1
72 1 0 35 0 9.77 7.0475 1
73 1 0 10 0 10.021 7.2793 0
74 1 0 8 0 9.77 7.0475 1
75 1 0 12 0 9.77 7.0475 0
76 1 0 7 0 10.222 6.7452 1
77 1 0 3 0 10.463 6.7452 1
78 1 0 25 0 10.222 6.7452 0
79 1 0 5 1 9.77 6.7452 1
80 1 0 4 0 10.222 7.0475 1
81 1 0 2 0 10.021 7.2793 1
82 1 0 5 0 10.463 6.7452 1
83 1 0 3 0 9.77 7.0475 0
84 1 0 2 0 10.82 7.4955 1
85 0 1 6 0 8.9227 5.9915 0
86 1 1 3 0 9.77 7.0475 1
87 1 0 12 0 9.4335 6.3969 1
88 0 0 3 0 9.77 6.7452 1
89 1 0 3 0 10.021 7.0475 1
90 0 0 3 0 10.021 6.7452 1
91 1 0 3 0 10.222 7.2793 1
92 1 0 3 1 10.021 7.0475 1
93 1 0 5 0 10.021 7.0475 1
94 0 0 35 1 8.9277 5.9915 1
95 1 0 3 0 10.463 7.4955 0
309
9.3. Упражнения и задачи

Задачи

1. Какие из перечисленных факторов учитываются в регрессии с помощью фик-
тивных переменных: а) профессия; б) курс доллара; в) численность населе-
ния; г) размер среднемесячных потребительских расходов?
2. В уравнение регрессии для доходов населения вводятся два качественных
фактора: «пол» и «наличие судимости». Сколько фиктивных переменных
(с учетом взаимодействия факторов) в исходной и преобразованной (после
устранения линейных зависимостей) форме уравнения?
3. В уравнение регрессии для доходов населения вводятся три качественных
фактора: пол («муж.», «жен.»), образование («нач.», «сред.», «высш.»)
и место проживания («гор.», «сел.»). Сколько фиктивных переменных (с
учетом всех взаимодействий факторов) в исходной и преобразованной (после
устранения линейных зависимостей) форме уравнения? Как выглядят матри-
?
цы преобразований C и C?
4. Известно, что котировки многих ценных бумаг зависят от того, в какой день
рабочей недели (понедельник, вторник, среда, . . . ) проходят торги. Как учесть
эту зависимость при построении регрессионной модели котировок?
5. Предположим, что оценивается зависимость спроса на лыжи от располагае-
мого личного дохода, используя наблюдения по месяцам. Как ввести фик-
тивную переменную для оценивания сезонных колебаний? Запишите со-
?
ответствующие матрицы преобразований C и C для каждого фиктивного
фактора.
6. Рассмотрим регрессионную модель xt = ?1 zt1 +?2 zt2 +? 0 +?t , t = 1, . . . , T .
Пусть для наблюдений t = 1 и 2 параметры ?1 , ?2 и ? 0 отличаются
от остальных ( T ? 2) наблюдений. Запишите регрессионную модель с фик-
тивными переменными и опишите возникшие проблемы оценивания.
7. На основе данных о расходах на автомобили (X) и располагаемом личном
доходе (Z) за период с 1963 по 1982 года получена модель: X = 0.77 +
+ 0.035Z ? 4.7Z1 , где Z1 — фиктивная переменная, учитывающая нефтя-
G F

ной кризис 1974 года, равная 0 для периодов с 1963 по 1973 гг. и равной
единице для периода с 1974 по 1982 гг.

а) Схематично нарисуйте график регрессионной функции и дайте полную
интерпретацию.
б) Запишите модель, в которой качественный фактор z G не влияет на сво-
бодный член, но влияет на наклон линии регрессии. Схематично нари-
суйте график регрессионной функции.
310 Глава 9. Целочисленные переменные в регрессии

8. Как меняется коэффициент детерминации при добавлении в регрессионную
модель фиктивной объясняющей переменной?

9. На основе опроса населения США Current Population Survey за 1985 г. изу-
чаются факторы, определяющие зарплату:
WAGE: зарплата (долларов за час) — изучаемая переменная,
EDU: образование (лет),
SOUTH: индикаторная переменная для Юга (1 = человек живет на Юге,
0 = человек живет в другом месте),
SEX: индикаторная переменная для пола (1 = жен, 0 = муж),
EXPER: стаж работы (лет),
UNION: индикаторная переменная для членства в профсоюзе (1 = член проф-
союза, 0 = нет),
AGE: возраст (лет),
RACE: раса (1 = другое, 2 = «Hispanic», 3 = белый),
OCCUP: профессиональная категория ( 1 = другое, 2 = Management,
3 = Sales, 4 = Clerical, 5 = Service, 6 = Professional),
SECTOR: сектор экономики (0 = другое, 1 = промышленность, 2 = стро-
ительство),
MARR: семейное положение (0 = неженатый/незамужняя, =
1
женатый/замужняя).

а) Какие из перечисленных переменных можно назвать фиктивными?
Объясните.
б) Объясните, в каком виде следует учитывать переменные RACE, OCCUP
и SECTOR в регрессии.
в) Для каждого фиктивного фактора запишите соответствующую матрицу
преобразований C.
г) Объясните, как будут выглядеть фиктивные переменные, соответству-
ющие эффектам второго порядка для пола и расы.

10. Модель регрессии с биномиальной зависимой переменной можно предста-
вить в виде: (зависимая переменная) = (математическое ожидание) + (ошиб-
ка). Какие предположения классической линейной регрессии при этом будут
нарушены?
311
9.3. Упражнения и задачи

11. Предположим, что с помощью обычного линейного МНК с биномиальной
зависимой переменной были получены оценки a. Как на их основе получить
приближенные оценки для модели пробит?

12. Логит-оценивание модели Pr(x = 1) = F (z?) дало результат x? = ?5.89 +
+ 0.2z. Чему равна вероятность x = 1 при z = 50?

13. Пробит-оценивание модели Pr(x = 1) = F (z?) дало результат x? =
= ?2.85 + 0.092z. Чему равна вероятность x = 1 при z = 50?

14. Логит-оценивание модели Pr(x = 1) = F (z?) дало результат x? = ?5.89 +
+ 0.2z. Чему равно увеличение вероятности Pr (x = 1) при увеличении z на
единицу, если z = 50?

15. Пробит-оценивание модели Pr(x = 1) = F (z?) дало результат x? =
= ?2.85 + 0.092z. Чему равно увеличение вероятности Pr (x = 1) при уве-
личении z на единицу, если z = 50?

16. Логит-модель применили к выборке, в которой x = 1, если производитель-
ность труда на предприятии выросла, и x = 0 в противном случае. z1 —
G
доход предприятия в млн. руб. в год, z1 = 1 если предприятие относит-
G
ся к области высоких технологий ( z1 = 0 в противном случае). Получена
G
следующая модель: x = 0.5 + 0.1z1 + 0.4z1 . Определите оценку вероятно-
сти роста производительности труда для высокотехнологичного предприятия
с доходом 100 млн. руб. в год и для предприятия, не относящегося к сфере
высоких технологий, с доходом 150 млн. руб. в год.

17. Имеется выборка, состоящая из 600 наблюдений, в которой x = 1, если
работник состоит в профсоюзе, и x = 0 в противном случае. Предпола-
гается, что членство в профсоюзе зависит от образования, лет ( z1 ), стажа
работы, лет ( z2 ) и пола ( z3 ). Выборочные средние равны x = 0.2, z1 = 14,
? ?
z2 = 18 и z3 = 0.45. На основе выборочных данных получена следующая
? ?
пробит-модель: x = ?0.9 ? 0.01z1 + 0.4z2 ? 0.6z3 . Определить, насколько
снижается вероятность быть членом профсоюза в расчете на год дополни-
тельного образования.

18. Пусть переменная x, принимающая значения 0 или 1, зависит от одного
фактора z. Модель включает также константу. Данные приведены в таблице:

x001101010 1

1 2 3 4 5 6 7 8 9 10
z
312 Глава 9. Целочисленные переменные в регрессии

а) Получите приближенные оценки логита и пробита методом усреднения,
разбив данные на две группы по 5 наблюдений. Каким будет процент
правильных предсказаний по модели для этих данных?
б) Ответьте на вопросы предыдущего пункта для метода приближенного
оценивания логита и пробита с помощью линейной регрессии.
в) Найдите маргинальное значение для фактора z в точке, соответствую-
щей его среднему уровню.

19. Пусть переменная x, принимающая значения 0 или 1, зависит от фиктив-
ной переменной z, принимающей значения 0 или 1. Модель включает также
константу. Данные резюмируются следующей таблицей (в клетках стоят ко-
личества соответствующих наблюдений):

x=0 x=1

z=0 N00 N01

z=1 N10 N11


а) При каких условиях можно на основе этих данных оценить логит
и пробит?
б) Получите приближенные оценки логита и пробита методом усреднения.
Чему они будут равны при N00 = 15, N01 = 5, N10 = 5, N11 = 15? Ка-
ким будет процент правильных предсказаний по модели для этих данных?
в) Ответьте на вопросы предыдущего пункта для метода приближенного
оценивания логита и пробита с помощью линейной регрессии.


Рекомендуемая литература
1. Айвазян С.А. Основы эконометрики. Т.2. — М.: «Юнити», 2001. (Гл. 2)

2. Доугерти К. Введение в эконометрику. — М.: «Инфра-М», 1997. (Гл. 9).

3. Дрейпер Н., Смит Г. Прикладной регрессионный анализ. В 2-х книгах.
Кн. 2. — М.: «Финансы и статистика», 1986. (Гл. 9).

4. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика — начальный
курс. — М.: «Дело», 2000. (Гл. 4).

5. Маленво Э. Статистические методы эконометрии. — М.: «Статистика».
Вып. 1, 1975. (Гл. 8).
313
9.3. Упражнения и задачи

6. Baltagi, Badi H. Econometrics, 2nd edition, Springer, 1999. (Ch. 13).

7. Davidson, Russel, Mackinnon, James. Estimation and Inference in Econo-
metrics, No. 9, Oxford University Press, 1993. (Ch. 7).

8. Greene W.H. Econometric Analysis, Prentice-Hall, 2000. (Ch. 8).

9. Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction
to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993.
(Ch. 10).

10. Maddala G.S. Introduction to Econometrics, 2nd ed., Prentice Hall, 1992.
(Ch. 8).

11. Ruud Paul A. An Introduction to Classical Econometric Theory, Oxford Univer-
sity Press, 2000. (Ch. 27).

12. Wooldridge Jeffrey M. Introductory Econometrics: A Modern Approach, 2nd ed.,
Thomson, 2003. (Ch. 7, 17).
Глава 10

Оценка параметров
систем уравнений


Пусть теперь имеется несколько изучаемых переменных, для каждой из которых
существует свое уравнение регрессии. В совокупности эти уравнения образуют
систему, которая является невзаимозависимой, если одни изучаемые переменные
не выступают факторами-регрессорами для других изучаемых переменных. Если
изучаемые переменные возникают не только в левых, но и правых частях уравнений,
то такие системы называются одновременными или взаимозависимыми.


10.1. Невзаимозависимые системы
В этом пункте используется сокращенная форма записи уравнений регрессии:

? ? (10.1)
X = ZA + ?,

где X — N ? k-матрица центрированных наблюдений за изучаемыми перемен-
?
ными,
Z — N ? n-матрица центрированных наблюдений за факторными перемен-
?
ными,
A — n ? k-матрица параметров уравнений регрессии,
? — N ? n-матрица ошибок изучаемых переменных (остатков по наблюдени-
ям).
315
10.1. Невзаимозависимые системы

Относительно ошибок предполагается, что в каждом наблюдении их математи-
ческое ожидание равно нулю, матрица ковариации размерности k ? k одинакова
и равна ? ( ? — вещественная, симметричная, положительно определенная мат-
рица), и что они не коррелированы по наблюдениям.
Оценивать параметры этой системы можно отдельно по каждому уравнению:

A = M ?1 m, (10.2)
?
1?? 1??
где M = N Z Z, m = N Z X, или через обычные операторы МНК-оценива-
?
ния (8.1), записанные последовательно для всех уравнений системы

al = M ?1 ml , l = 1, . . . , k.
Т.е. факт коррелированности ошибок разных изучаемых переменных ( ? = Ik ) не со-
здает дополнительных проблем.
Действительно, преобразованием в пространстве изучаемых переменных легко пе-
рейти в ситуацию, когда ошибки изучаемых переменных не коррелированы.
?1
Пусть матрица C такая, что ? = C C ?1 (такое представление допускает любая
вещественная симметричная положительно определенная матрица, см. Приложе-
ние A.1.2). Умножим обе части (10.1) справа на эту матрицу:
? ? (10.3)
XC = ZAC + ?C.
Новые ошибки изучаемых переменных во всех наблюдениях оказываются не корре-
лированными:
E(?i ?i )=?
E(C ?i ?i C) = IN ,

где ?i — вектор-строка ошибок в i-том наблюдении.
Теперь уравнения системы не связаны между собой, и их можно оценить обыч-
ным МНК по отдельности, что, очевидно, приводит к матричному оператору
AC = M ?1 mC , который эквивалентен (10.2).
?
Что и требовалось доказать.

Ситуация резко усложняется, если для коэффициентов матрицы A имеются
априорные ограничения.
Пусть, например, эта матрица имеет следующую структуру:
? ?
···
?a1 0?
0
? ?
? ?
?0 0?
a2 · · ·
? ?
? ?,
?. .?
. ..
?. .?
. .
?. . .?
? ?
· · · ak
0 0
316 Глава 10. Оценка параметров систем уравнений

где al — nl -вектор-столбец коэффициентов в l-м уравнении (для l-й изучаемой
k
переменной), nl = n, т.е. многие элементы матрицы A априорно приравнены
l=1
нулю.
Фактически это означает, что для каждой изучаемой переменной имеется свой
набор объясняющих факторов с N ? nl -матрицей наблюдений Zl Z = Z1 · · ·Zk ,
?? ? ?
и система уравнений (10.1) представляется как совокупность внешне не связанных
между собой уравнений:
? ? (10.4)
Xl = Zl al + ?l , l = 1, . . . , k.

Сразу можно заметить, что теперь оператор (10.2) применить невозможно,
т.к. система нормальных уравнений, решением которой является этот оператор,
записывается следующим образом:
? ? ? ?
· · · M1k ak ? ?m11 · · · m1k ?
?M11 a1
? ?? ?
?. . ?=? . . ?,
.. ..
?. . ? ?. .? (10.5)
. .
?. . ? ?. .?
? ? ? ?
Mk1 a1 · · · Mkk ak mk1 · · · mkk

1?? 1??
где Mll = N Zl Zl , mll = N Zl Xl , т.е. вектор оценок параметров каждого урав-
нения должен удовлетворять k взаимоисключающим, в общем случае, системам
уравнений.
Правильная оценка параметров регрессии дается решением следующих урав-
нений:
k k
?1 ?1
?ll Mll al = ?ll mll , l = 1, . . . , k,
l =1 l =1

?1
где ?ll — элемент матрицы ??1 .
Или в матричной записи:
? ? ? ?
?1 ?1 ?1 ?1
· · · +?1k M1k ak ? ??11 m11 + · · · +?1k m1k ?
??11 M11 a1 +
? ?? ?
? ?? ?
. . . .
.. ..
? ?=? ?,
. . . . (10.6)
. .
. . . .
? ?? ?
? ? ? ?
?1 ?1 ?1 ?1
··· ···
?k1 Mk1 a1 + +?kk Mkk ak ?k1 mk1 + +?kk mkk

которая при сравнении с (10.5) оказывается результатом умножения в (10.5) всех
?1
Mll и mll на ?ll и сложения столбцов в обеих частях этого выражения.
317
10.1. Невзаимозависимые системы

Для доказательства этого утверждения необходимо перегруппировать уравнения си-
стемы так, чтобы
?? ? ? ?? ? ?
?Z1 0 · · ·?
? ?
? X1 ? ?a1 ? ? ?1 ?
?? ? ? ?? ? ?
X = ?X2 ? , Z = ? 0 Z2 . . . ? , a = ?a2 ? , ? = ? ?2 ?,
? ? ? ?? ??
?? ?
? ? ? ?
?? ? ? ?? ? ?
. . .. . .
..
. . . .
. .
. . . .
?
т.е. если забыть об особой структуре матрицы Z , формально имеется одна изучаемая
переменная, для которой имеется N · k «наблюдений».
Теперь система (10.4) записывается следующим образом:
? ?a ?
X = Z? + ?,
и применение простого МНК приводит к получению обычных оценок уравнений
в отдельности:
?1
al = Mll mll .

Однако такой подход неприемлем, надо применять ОМНК, поскольку остатки корре-
лированы по «наблюдениям», ибо в соответствии со сделанными предположениями
E(?? ) = ? ? IN ,
??
где ? — операция прямого умножения матриц (см. Приложения A.1.1 и A.1.2).
Из (8.1) следует, что система нормальных уравнений ОМНК в данном случае выгля-
дит так:
Z ??1 ? IN Z? = Z ??1 ? IN X.
? ?a ? ? (10.7)

Легко убедиться, что
? ?
.
.
?1 ? ?1 ?
.?
? ?11 Z11 ?12 Z12
? . . ?.
= ? ? ?1 Z .?
Z ??1 ? IN
? ?1 ?
? 21 ?21 ?
?22 Z22
? ?
. .. ..
. . .
.

?
Умножение этой матричной конструкции справа на Z и деление на N дает блочную
?1
матрицу {?ll Mll }, которая является матрицей системы (10.6), а умножение ее
?1
?
справа на X и деление на N — вектор , являющийся правой частью
?ll mll
l
системы (10.6).
Таким образом, (10.7) эквивалентна (10.6). Что и требовалось доказать.
?1
Эта оценка совпадает с обычной МНК-оценкой al = Mll mll , если матрица ?
диагональна, т.е. ошибки изучаемых переменных не коррелированы.
318 Глава 10. Оценка параметров систем уравнений

10.2. Взаимозависимые или одновременные
уравнения. Проблема идентификации
Далее в этом разделе уравнения регрессии записываются в форме со скрытым
свободным членом.
X — N ? k-матрица наблюдений за изучаемыми переменными x;
Z — N ? (n + 1)-матрица наблюдений за независимыми факторами z;
B — k ? k-матрица параметров регрессии при изучаемых переменных;
B = Ik , иначе система была бы невзаимозависимой; |B| = 0 и ?ll = 1 — усло-
вия нормализации, т.е. предполагается, что, в конечном счете, в левой части l-го
уравнения остается только l-я переменная, а остальные изучаемые переменные
переносятся в правую часть;
A — (n + 1)? k-матрица параметров регрессии (последняя строка — свобод-
ные члены в уравнениях);
? — N ? k-матрица значений случайных ошибок по наблюдениям;
(10.8)
XB = ZA + ?.

Такая запись одновременных уравнений называется структурной формой.
Умножением справа обеих частей этой системы уравнений на B ?1 она приводится
к форме, описанной в предыдущем пункте. Это — приведенная форма системы:
X = ZAB ?1 + ?B ?1 .
D = AB ?1 — (n + 1) ? k-матрица параметров регрессии приведенной формы.
Как показано в пункте 10.1, для их оценки можно использовать МНК:
D = (Z Z)?1 Z X.

Таким образом, матрица D оценивается без проблем, и ее можно считать
известной. Однако задача заключается в оценке параметров B и A системы
в приведенной форме. Эти параметры, по определению, удовлетворяют следую-
щим условиям:
DB ? A = 0 (10.9)
или W H = 0, где
W — (n + 1) ? (n + k + 1)-матрица D In+1 ,
? ?
?B?
H — (n + k + 1) ? k-матрица ? ?.
?A
319
10.2 Взаимозависимые или одновременные уравнения

Это — условия для оценки параметров структурной формы. В общем случае
эти условия достаточно бессмысленны, т.к. они одинаковы для параметров всех
уравнений. Они описывают лишь множество допустимых значений параметров
(одинаковое для всех уравнений), поскольку для n + k + 1 параметров каждо-
го уравнения структурной формы имеется только n + 1 одинаковых уравнений.
Необходимы дополнительные условия, специальные для каждого уравнения.
Пусть для параметров l-го уравнения кроме требования

W Hl = 0 ((Z Z)?1 Z XBl ? Al = 0) (10.10)

имеется дополнительно rl условий:

(10.11)
Rl Hl = 0,

где Rl — rl ? (n + k + 1)-матрица дополнительных условий,
? ?
? Bl ?
Hl — (n + k + 1)-вектор-столбец ? ? параметров l-го уравнения —
?Al
l-й столбец матрицы H .
? ?
?W ?
? ? Hl = Wl Hl = 0 — общие условия для определения структурных пара-
Rl
метров l-го уравнения, где Wl — (n + rl + 1) ? (n + k + 1)-матрица.
Они позволяют определить искомые параметры с точностью до постоянного
множителя (при выполнении условий нормализации ?l = 1 параметры определя-
ются однозначно), если и только если ранг матрицы Wl равен n + k. Для этого
необходимо, чтобы

k ? 1. (10.12)
rl

Однако, это условие не является достаточным. Имеется необходимое и доста-
точное условие для определения параметров l-го уравнения (более операциональ-
ное, чем требование равенства n + k ранга матрицы Wl ):

rank(Rl H) = k ? 1. (10.13)

Доказательство данного утверждения опускается по причине сложности.
Теперь вводятся определения, связанные с возможностью нахождения пара-
метров уравнения структурной формы: l-е уравнение не идентифицировано, если
rl < k ? 1; оно точно идентифицировано, если rl = k ? 1 и ранг Wl равен
n + k; сверхидентифицировано, если rl > k ? 1. В первом случае параметры не
320 Глава 10. Оценка параметров систем уравнений

могут быть оценены, и, хотя формально, например, используя МНК, оценки можно
получить, они никакого смысла не имеют; во втором случае параметры уравнения
оцениваются однозначно; в третьем — имеется несколько вариантов оценок.
Обычно строки матрицы Rl являются ортами, т.е. дополнительные ограни-
чения исключают некоторые переменные из структурной формы. Тогда, если kl
и nl — количества, соответственно, изучаемых переменных, включая l-ю, и неза-
висимых факторов в l-м уравнении, то для его идентификации необходимо, чтобы

(10.14)
kl + nl n + 1.

(10.12)
По определению, rl = n ? nl + k ? kl k ? 1 ? nl + kl n + 1.

В таком случае условие (10.13) означает, что матрица, составленная из ко-
эффициентов во всех прочих уравнениях, кроме l-го, при переменных, которые
исключены из l-го уравнения, должна быть не вырождена. При этом l-й столбец
матрицы Rl H из (10.13), равный нулю, как это следует из (10.11), исключается
из рассмотрения.

Для иллюстрации введенных понятий используется элементарная модель равновесия
спроса и предложения на рынке одного товара в предположении, что уравнения
спроса и предложения линейны (в логарифмах):

s = b21 p + c1 + ?1 — предложение,
d = ?b22 p + c2 + ?2 — спрос,

где p — цена, b21 , b22 — эластичности предложения и спроса по цене, s, d и
p — логарифмы предложения, спроса и цены.
Наблюдаемой переменной является фактический объем продаж x, и, предположив,
что в действительности рынок находится в равновесии: x = s = d, эту модель
в структурной форме (10.8) можно записать следующим образом:
? ?
?1 1?
[x p]? ? = [ c1 c2 ] + [ ?1 ?2 ]. (10.15)
?b21 b22

В такой записи условия нормализации не выполнены, т.к. в левой части обоих урав-
нений находится одна и та же переменная x; понятно, что принципиального значения
эта особенность модели не имеет.
Следует напомнить, что одной из главных гипотез применения статистических ме-
тодов вообще и МНК в частности является g1: уравнения регрессии представляют
истинные зависимости, и речь идет лишь об оценке параметров этих истинных зави-
симостей. В данном случае это означает, что на спрос и предложение влияет только
321
10.2 Взаимозависимые или одновременные уравнения


x s




d


p


Рис. 10.1


цена, и линии спроса и предложения в плоскости, абсциссой которой является цена,
не меняют своего положения. Поэтому наблюдаемые пары (p, x) сконцентрированы
вокруг единственной точки равновесия, облако наблюдений не имеет вытянутостей,
и зависимости x от p статистически выявить невозможно (рис. 10.1).
Статистически оба уравнения одинаковы, и нет оснований считать коэффициент
регрессии, например, x по p, эластичностью спроса или предложения по цене.
Более того, в данном случае эта регрессия будет не значима. Эти уравнения не
идентифицированы. Действительно, k = 2, n = 0, r1 = r2 = 0, и необходимое
условие идентификации (10.12) для обоих уравнений не выполнено.
Пусть речь идет о товаре, имеющем сельскохозяйственное происхождение. Тогда его
предложение зависит от погодных условий, и в модель следует ввести переменную
z1 — некий индекс погоды в течение сельскохозяйственного цикла. В правую часть
соотношения (10.15) вводится дополнительное слагаемое:
(10.16)
z1 [ a11 0 ] .

Если модель (10.15, 10.16) истинна (гипотеза g3), то подвижной становится линия
предложения (погодные условия в разные сельскохозяйственные циклы различны),
и облако фактических наблюдений вытягивается вдоль линии спроса. Регрессия x
на p дает оценку эластичности спроса по цене (рис. 10.2). В этой ситуации уравнение
предложения по-прежнему не идентифицировано, но для уравнения спроса условия
идентификации (10.12) выполнены, и это уравнение идентифицировано.

s1
s2
x s3
s4
s5



d

p

Рис. 10.2
322 Глава 10. Оценка параметров систем уравнений

s
x


d6
d5
d4
d3
d2
d1
p

Рис. 10.3


Действительно: k = 2, n = 1, r1 = 0, r2 = 1 и r1 < k ? 1, r2 = k ? 1. Более
убедительно этот результат можно получить, используя необходимые и достаточные
условия идентификации (10.13).
Матрица H в этих условиях имеет следующий вид:
? ?
?1 1?
? ?
? ?
? ?b21 b22 ?
H =? ?.
? ?
??a 0?
? 11 ?
? ?
c1 c2


Матрица R1 — пустая ( rl = 0), и условия (10.13) для первого уравнения не выпол-
няются. Для второго уравнения R2 = [ 0 0 1 0 ], и матрица R2 H равна [ ?a11 0 ],
т.е. ее ранг равен единице, и условие (10.13) выполнено. А матрица, составлен-
ная из коэффициентов во всех прочих уравнениях, кроме второго, при переменных,
которые исключены из второго уравнения, есть [?a11 ], т.е. она не вырождена.
Теперь рассматривается другая возможность: изучаемый товар входит в потреби-
тельскую корзину, и спрос на него зависит от доходов домашних хозяйств. В модель
вводится переменная z2 доходов домашних хозяйств, т.е. в правую часть соотноше-
ний (10.15) добавляется слагаемое

(10.17)
z2 [ 0 a22 ] .

Если истинна модель (10.15, 10.17), то подвижной окажется линия спроса (раз-
ные домашние хозяйства имеют разные доходы), и регрессия x на p даст оценку
эластичности предложения по цене (рис. 10.3). В такой ситуации не идентифициро-
вано уравнение спроса. Уравнение предложения идентифицировано: k = 2, n = 1,
r1 = 1, r2 = 0 и r1 = k ? 1, r2 < k ? 1.
Понятно, что можно говорить о модели, в которую входят обе отмеченные пере-
менные: и z1 и z2 . Это — модель (10.15, 10.16, 10.17). В правую часть (10.15)
323
10.2 Взаимозависимые или одновременные уравнения

s1
s2
x
s3
s4
s5
d6
d5
d4
d3
d2
d1
p

Рис. 10.4


добавляется слагаемое
? ?
? a11 0?
[ z1 z2 ] ? ?.
0 a22
В этом случае идентифицированы оба уравнения: k = 2, n = 1 , r1 = r2 = 1 = k?1.
Но поскольку подвижны обе линии — и спроса, и предложения — облако наблюде-
ний не имеет вытянутостей (рис. 10.4), и регрессия x на p опять оказывается не
значимой. Для оценки параметров регрессии требуется использовать специальные
методы, рассматриваемые ниже. Впрочем, и в двух предыдущих случаях необходимо
использование специальных методов оценки параметров взаимозависимых систем,
т.к. обычный МНК дает смещенные и несостоятельные оценки.
Пусть теперь на предложение товара влияет еще один фактор z3 , показывающий,
например, количество удобрений на единицу площади, с которой собирается продукт,
принимающий в дальнейшем форму товара. Тогда в правой части уравнения (10.15)
возникает слагаемое
? ?
? a11 0?
[ z1 z3 ] ? ?,
a31 0
и первое уравнение по-прежнему остается не идентифицированным, а второе ока-
зывается сверхидентифицированным.
Далее ряд утверждений будет иллюстрироваться на примере модели (10.15, 10.16).
В иллюстрациях эту модель удобнее записывать в сокращенном виде:
? ?
? 1?
1
[x p]? ? = z1 [ ?11 0 ] + [ ?1 ?2 ] . (10.18)
?? ?
??21 ?22
Поскольку
? ??1 ? ?
?1?
?1 1? ??22
1
? ? ? ?,
=
?21 + ?22
??21 ?22 ?21 1
324 Глава 10. Оценка параметров систем уравнений

приведенная форма модели имеет следующий вид:

[ x p ] = z1 [ d11 d12 ] + [ ?1 ?2 ] =
?? ?
1
(?1 [ ?11 ?22 ? ?11 ] + [ ?1 ?22 + ?2 ?21 ?2 ? ?1 ]). (10.19)
= z
?21 + ?22
Из этого соотношения видно, как d и ? связаны с ? и ?.

Дальнейшее изложение ведется в предположении, что строки матрицы Rl —
орты.


10.3. Оценка параметров отдельного уравнения
Вводятся дополнительные обозначения:
X l — N ? kl -матрица наблюдений за изучаемыми переменными xl , входящи-
ми в l-е уравнение;
Xl — N -вектор-столбец наблюдений за l-й переменной xl ;
X? — N ? (kl ? 1)-матрица X l без столбца Xl наблюдений за xl ;
l
?
? l — kl -вектор-столбец параметров при изучаемых переменных в l-м урав-
нении;
?l — (kl ? 1)-вектор-столбец ? l с обратным знаком и без l-го элемента
?ll = 1;
Z l — N ?(nl +1)-матрица наблюдений за независимыми факторами z l , входя-
щими в l-е уравнение, включая единичный столбец, соответствующий свободному
члену;
?l — (nl + 1)-вектор-столбец параметров при этих факторах вместе со сво-
бодным членом;
?l — N -вектор-столбец остатков в l-м уравнении по наблюдениям.
Тогда l-е уравнение регрессии можно записать следующим образом:

X l ? l = Z l ?l + ?l (10.20)

или

Xl = X? ?l + Z l ?l + ?l .
l
(10.21)

Применение обычного МНК к этому уравнению дает в общем случае смещен-
ные и несостоятельные оценки, прежде всего потому, что остатки ?l скорее всего
l
коррелированы с регрессорами X? , которые к тому же недетерминированы и на-
блюдаются с ошибками (гипотеза g2 нарушена).
325
10.3. Оценка параметров отдельного уравнения

Для иллюстрации справедливости этого утверждения используется модель (10.15,
10.16). Пусть эта модель истинна, и тогда регрессия x на p даст оценку ??22 :
xi pi
??
?bмнк = (10.22)
.
22
p2
?i
Это выражение можно преобразовать, используя (10.18, 10.19) (чтобы не загро-
1
мождать записи, обозначено через P ):
p2
?i
xi =??22 pi +?i2
? ? pi =?i1 d12 +?i2
?z
? ? ?22 + P
bмнк =P xi pi
?? = ?i2 pi
? =
22

? ??
?i2 = ? i2 +?i1
21 22
= ??22 + P d12 ? ?22 +
zi1 ?i2 +
? ?i2 ?i2 =

1
?2 ?
+P d12 zi1 ?i2 +
? ?i1 ?i2 .
i2
?21 + ?22

Очевидно, что ?bмнк по математическому ожиданию никак не может равняться ?
22
?2 , т.е. диспер-
??22 , поскольку в правой части полученного выражения имеется i2
сия (в математическом ожидании) остатка в уравнении по спросу, которая не равна
нулю и к тому же не будет уменьшаться с ростом N . Эта оценка смещена и несосто-
ятельна.

Если данное уравнение точно идентифицировано, то для оценки его параметров
можно использовать косвенный метод (КМ) наименьших квадратов: с помощью
МНК оцениваются параметры приведенной формы системы уравнений, через ко-
торые однозначно выражаются структурные параметры данного уравнения.

В качестве примера можно использовать оценку параметров второго уравнения мо-
дели (10.15, 10.16), которое точно идентифицировано. Действительно, параметры
приведенной формы модели однозначно определяют оценку ??22 , как это следует
из (10.19):
d11
?bKM = (10.23)
.
22
d12
Поскольку
xi zi1
?? pi zi1
??
d11 = , d12 = ,
?2 ?2
zi1 zi1
то соотношение (10.23) означает, что
xi zi1
??
?bKM = ,
22
pi zi1
??
т.е. что (ср. с (10.22)) используется метод инструментальных переменных с z1 в ка-
честве инструментальной переменной.
326 Глава 10. Оценка параметров систем уравнений

Можно записать уравнения для оценки косвенным методом в общем случае.
Сначала следует обратить внимание на то, что условия (10.11) эквивалентны
требованиям
TlB ? l = Bl , TlA ?l = Al , (10.24)
где TlB — k ? kl -матрица, полученная из Ik вычеркиванием столбцов, соответ-
ствующих тем изучаемым переменным, которые исключены из l-го уравнения;
TlA – аналогичная (n + 1) ? (nl + 1)-матрица для Al .
Bl и Al имеют нулевые компоненты, соответствующие исключенным из l-го
уравнения переменным.
Далее необходимо учесть, что параметры структурной формы, удовлетворяю-
щие условиям (10.24), должны для своей идентификации еще удовлетворять со-
отношениям (10.10). Тем самым получается система уравнений для нахождения
параметров структурной формы:
DTlB bl ? TlA al = 0,
или по определению матрицы TlB :
Dl bl ? TlA al = 0,
где D l – оценки параметров приведенной формы уравнений для изучаемых пере-
менных, вошедших в l-е уравнение, или, наконец,
Dl = D? bl + TlA al ,
l
(10.25)
где Dl — оценки параметров l-го уравнения в приведенной форме,
l
D? — оценки параметров приведенной формы уравнений для изучаемых пе-
ременных, вошедших в правую часть l-го уравнения.
Эти матрицы коэффициентов приведенной формы представляются следующим
образом:
Dl = (Z Z)?1 Z X l , Dl = (Z Z)?1 Z Xl , D? = (Z Z)?1 Z X? .
l l


Система уравнений (10.25) может быть также получена умножением обеих
частей системы (10.21) слева на (Z Z)?1 Z , т.к. третье слагаемое правой части
отбрасывается (МНК-остатки должны быть ортогональны регрессорам), а во 2-м
слагаемом (Z Z)?1 Z Z l заменяется на TlA (т.к. по определению этой матрицы
Z l = ZTlA ).
В общем случае, матрица этой системы D? TlA имеет размерность (n + 1)?
l

? (kl + nl ). Первый ее блок имеет размерность (n + 1) ? (kl ? 1), второй —
(n + 1) ? (nl + 1).
327
10.3. Оценка параметров отдельного уравнения

В случае точной идентификации и строгого выполнения условий (10.14) эта
матрица квадратна и не вырождена. Система (10.25) дает единственное реше-
ние — оценку параметров структурной формы l-го уравнения косвенным методом
наименьших квадратов.

В структурной форме со скрытым свободным членом модель (10.15+10.16) записы-
вается следующим образом:
? ? ? ?
? 1? ? a11 0?
1
XP ? ? = [ Z1 1 N ] ? ? + [ e1 e2 ] ,
?b21 b22 c1 c2

а ее второе, точно идентифицированное уравнение в форме (10.21) —
? ?
?0?
X = P (?b22 ) + [ Z1 1N ] ? ? + [ e1 e2 ] . (10.26)
c2

Как это было показано выше, обе части (10.26) умножаются на матрицу
?? ? ??1 ? ?
?? Z1 ? ? ? Z1 ?
?? ? Z1 1 N ? ? ?:
1N 1N
???? ??
?d11 ? ?d12 ? ?0?
? ? = ? ? (?b22 ) + ? ? ,

<<

стр. 12
(всего 28)

СОДЕРЖАНИЕ

>>