<<

стр. 25
(всего 28)

СОДЕРЖАНИЕ

>>

ся к отдельному уравнению, стоят по столбцам этих матриц. Относительно матри-
цы ?j предполагается, что ее диагональные элементы1 равны нулю, (?0 )ll = 0,
l = 1, . . . , k. Это означает, что отдельная переменная xlt не влияет сама на себя
в тот же момент времени.
При этом предполагается, что ковариационная матрица одновременных ошибок
диагональна:

2 2
(23.1)
var(?t ) = diag(?1 , . . . , ?k ) = ?.

Некоторые из коэффициентов здесь известны, поэтому такая модель называется
структурной.
Обозначим

B = I ? ?0 , Bll = 1.

Тогда SVAR можно переписать как

p
(23.2)
xt B = xt?j ?j + zt A + ?t .
j=1



1
Если матрица имеет индекс, то для обозначения ее элемента мы будем заключать матрицу в скоб-
ки. Например, (A1 )ij .
656 Глава 23. Векторные авторегрессии

Структурная векторная регрессия фактически является «гибридом» моделей
авторегрессии и систем одновременных уравнений. Соответственно, анализ таких
моделей должен учитывать и динамические свойства, характерные для моделей
авторегрессии, и черты, присущие системам одновременных уравнений.
Уравнение структурной векторной авторегрессии представляет собой систе-
му одновременных регрессионных уравнений, в которой среди факторов имеются
лаги изучаемых переменных. Для того чтобы показать это в явном виде, введем
следующие обозначения:
? ?
? ?
?1
? ?
? ?
.
? ?
.
.
?=? ?
A? ?.
и
zt = (xt?1 , . . . , xt?p , zt )
?
? ?
? ?p ?
? ?
? ?
A

В таких обозначениях

??
xt B = zt A + ?t ,

или в матричной записи

??
XB = Z A + ?.

Как и в случае систем одновременных уравнений, нельзя оценить параметры
структурной формы методом непосредственно наименьших квадратов, поскольку,
если матрица B недиагональна, найдутся уравнения, в которых будет более чем
одна эндогенная переменная. В i-м уравнении системы будет столько же эндоген-
ных переменных, сколько ненулевых элементов в i-м столбце матрицы B. Таким
образом, в общем случае уравнения системы будут взаимозависимы, и, следова-
тельно, оценки их по отдельности методом наименьших квадратов будут несостоя-
тельными.
Классический частный случай, в котором все-таки можно применять МНК —
это случай рекурсивной системы. Рекурсивной является система одновременных
уравнений, в которой матрица B является верхней треугольной, а матрица ко-
вариаций ошибок ? (23.1) является диагональной. Последнее условие в случае
SVAR выполнено по определению. При этом первая переменная зависит только
от экзогенных переменных, вторая переменная зависит только от первой и от экзо-
генных переменных и т.д. Поскольку ошибки в разных уравнениях некоррелирова-
ны, то каждая эндогенная переменная коррелирована только с ошибками из своего
657
23.1. Векторная авторегрессия: формулировка и идентификация

и предыдущих уравнений и не коррелирована с ошибками тех уравнений, в кото-
рые она входит в качестве регрессора. Таким образом, ни в одном из уравнений не
нарушаются предположения МНК о некоррелированности ошибки и регрессоров,
т.е. оценки МНК состоятельны.
В общем случае, когда модель SVAR не обязательно рекурсивная, чтобы изба-
виться от одновременных зависимостей, можно умножить2 23.2 справа на B ?1 :
p
xt?j ?j B ?1 + zt AB ?1 + ?t B ?1 .
xt =
j=1

Далее, обозначим
D = AB ?1 , ?j = ?j B ?1 , vt = ?t B ?1 .
Это дает приведенную форму векторной авторегрессии:
p
xt = xt?j ?j + zt D + vt .
j=1

Ковариационная матрица одновременных ошибок приведенной формы равна
var(vt ) = ?. Она связана с ковариационной матрицей одновременных ошибок
структурной формы ? (см. 23.1) соотношением B ?B = ?.
Как и в случае обычных одновременных уравнений, при оценивании структур-
ных векторных авторегрессий возникает проблема идентификации. Существует
несколько типов идентифицирующих ограничений, которые можно использовать
для решения этой проблемы.
1) Нормирующие ограничения, которые только закрепляют единицы измерения
коэффициентов. В данном случае в качестве нормирующих ограничений использу-
ются ограничения Bll = 1 (диагональные элементы матрицы B равны 1).
2) Ограничения на коэффициенты структурных уравнений. Ограничения на ко-
эффициенты бывают двух видов: ограничение на коэффициенты в пределах одного
и того же уравнения (важный частный случай такого ограничения — исключение
переменной из уравнения) и ограничение на коэффициенты нескольких уравнений.
3) Ограничения на ковариационную матрицу ошибок. В структурной вектор-
ной авторегрессии используется крайний случай таких ограничений: матрица ко-
вариаций ошибок ? в этой модели диагональна (см. 23.1), т.е. так называемое
ограничение ортогональности ошибок.
4) Долгосрочные ограничения. Это ограничения на долгосрочные взаимодей-
ствия переменных, резюмируемые долгосрочным мультипликатором M , о котором
речь пойдет ниже (см. 23.5).
2
Мы исходим из предположения, что B — неособенная матрица.
658 Глава 23. Векторные авторегрессии

В отличие от векторной авторегрессии, в классических системах одновремен-
ных уравнений редко используют ограничения на ковариационную матрицу, а здесь
они входят в определение модели, причем в виде жесткого ограничения ортого-
нальности ошибок.
Стандартные идентифицирующие ограничения, которые неявно подразумева-
лись в ранних статьях по векторной авторегрессии, состоят в том, что матри-
ца B является верхней треугольной. Это дает рекурсивную векторную авторе-
грессию.
Рекурсивную векторную авторегрессию можно оценить методом наименьших
квадратов по причинам, о которых упоминалось выше. Другой способ состоит в том,
чтобы оценить приведенную форму модели и восстановить из нее коэффициен-
ты структурной формы. Для этого надо использовать так называемое разложение
Холецкого (триангуляризацию) для ковариационной матрицы приведенной фор-
мы: ? = U ?U , где ? — диагональная матрица с положительными элементами,
U — верхняя треугольная матрица с единицами на диагонали. Естественно, вместо
истинной матрицы ? используют ее оценку. Тогда полученная матрица ? будет
оценкой ковариационной матрицы ошибок структурной формы, а U ?1 — оценкой
матрицы B.
Однако использование рекурсивной векторной авторегрессии нежелательно,
если только нет каких-либо оснований считать, что одновременные взаимодей-
ствия между переменными действительно являются рекурсивными. Дело в том, что
эти идентифицирующие ограничения совершенно произвольны и зависят от того,
в каком порядке расположены переменные в векторе xt .
В общем случае оценивание структурной VAR производят примерно теми
же методами, что и оценивание одновременных уравнений. В частности, можно
использовать метод максимального правдоподобия. Специфичность методов оце-
нивания состоит в том, что они должны учитывать ограничение ортогональности
ошибок.



23.2. Стационарность векторной авторегрессии

Чтобы анализировать условия и следствия стационарности векторной авто-
регрессии, удобно отвлечься от структурной формы этой модели и пользоваться
приведенной формой. Для упрощения анализа мы без потери общности будем рас-
сматривать векторную авторегрессию без детерминированных членов:

p
xt = xt?j ?j + vt ,
j=1
659
23.2. Стационарность векторной авторегрессии

или в операторном виде3 :
p
xt I ? ?j Lj = vt .
j=1


Многие свойства процесса VAR(p) можно получить из свойств процесса VAR(1),
если воспользоваться соответствующим представлением:

???
xt = xt?1 ? + vt ,
?

где вводятся следующие обозначения:

xt = (xt , xt?1 , . . . , xt?p+1 ) ,
?
vt = vt , 0k , . . . , 0k
?

и
? ?
0k?k · · · 0k?k ?
? ?1 Ik
? ?
? ?
?? 0k?k ?
···
? ?
0k?k Ik
2
? ?
??. . ?.
?=? . . . .. .?
. . .
. . . .?
?
? ?
? ?
? ?p?1 Ik ?
0k?k 0k?k · · ·
? ?
? ?
0k?k 0k?k · · · 0k?k
?p

Используя рекуррентные подстановки

xt = (?t?2 ? + vt )? + vt = xt?2 ?2 + vt ? + vt ,
x ? ?? ? ?? ?? ?
?
xt = (?t?3 ? + vt )?2 + vt ? + vt = xt?3 ?3 + vt ?2 + vt ? + vt
x ? ?? ?? ? ?? ?? ?? ?
?

и т.д., несложно получить для VAR(1) представление в виде бесконечного скользя-
щего среднего:
?
xt = vt + vt ? + vt ?2 + vt ?3 + . . . =
?? ?? ?? ??
vt?i ?i .
? ?
i=0

Для того чтобы этот ряд сходился, необходимо, чтобы его члены затухали,
т.е. чтобы в пределе при i > ? последовательность матриц ?i стремилась к ну-
?
?
лю. Для этого требуется, чтобы собственные значения матрицы ? лежали внутри
3
Здесь оператор стоит после переменной, на которую действует, чтобы не нарушать правила
умножения матриц.
660 Глава 23. Векторные авторегрессии

?
единичного круга. Собственные значения матрицы ?, по определению, удовлетво-
ряют уравнению:

? ? ?IT p = 0.
?

Определитель в этой формуле можно выразить через матрицы ?j (доказательство
этого требует довольно громоздких вычислений):

? ? ?IT p = (?1)T p IT ?p ? ?1 ?p?1 ? . . . ? ?p?1 ? ? ?p .
?

Таким образом, уравнение для собственных значений эквивалентно следую-
щему:

IT ?p ? ?1 ?p?1 ? . . . ? ?p?1 ? ? ?p = 0.

Процесс VAR(p) слабо стационарен тогда и только тогда, когда корни этого
уравнения меньше единицы по абсолютной величине.
Эти условия стационарности можно переформулировать в терминах матричного
характеристического многочлена процесса VAR(p), который равен
p
?(z) = I ? ?j z j .
j=1

Если возьмем определитель этого многочлена, то получится скалярный харак-
теристический многочлен
p
|?(z)| = I ? ?j z j .
j=1

Он будет многочленом, поскольку определитель — это многочлен от своих эле-
ментов. Соответствующее характеристическое уравнение имеет вид:

|?(z)| = 0.

Условия стационарности состоят в том, что корни этого характеристического урав-
нения лежат за пределами единичного круга.


23.3. Анализ реакции на импульсы
Для содержательной интерпретации стационарной векторной авторегрессии
следует выразить изучаемую переменную xt через ошибки ?t структурной формы,
которые, по определению модели, взаимно некоррелированы.
661
23.3. Анализ реакции на импульсы

Запишем приведенную форму модели (без детерминированных членов) с ис-
пользованием лагового оператора L:
p
?j Lj = vt = ?t B ?1 .
xt I ?
j=1


В предположении стационарности процесса xt можно обратить лаговый поли-
ном и получить
p ?1
?1
I? ?j Lj (23.3)
xt = ?t B .
j=1


Это дает представление в виде бесконечного скользящего среднего (представ-
ление Вольда) для VAR:
?
(23.4)
xt = ?t?i ?i .
i=0

Матрицы ?i представляют так называемую функцию реакции на импуль-
сы (IRF — impulse response function) для структурной векторной авторегрессии
и могут быть символически записаны в виде
dxt
?i = .
d?t?i

Более точно, функция реакции на импульсы — это последовательность (?i )lr ,
i = 0, 1, 2, где l и r — индексы пары изучаемых переменных. Величина (?i )lr
показывает, как влияет ошибка ?tl (которая соответствует уравнению для пере-
менной xtl ) на переменную xtr при запаздывании на i периодов.
Эти матрицы можно рассчитать рекуррентно:
p
?i = ?i?j ?j , i = 1, 2, . . . ,
j=1

начиная с

?0 = B ?1 и ?i = 0k?k , i < 0.

Накопленная реакция на импульсы определяется следующим образом:
s
?s = ?i .
i=0
662 Глава 23. Векторные авторегрессии

Она показывает суммарное запаздывающее влияние ошибок на изучаемую пе-
ременную для всех лагов от 0 до некоторого s.
Долгосрочное влияние резюмируется матрицей M , определяемой как
?
(23.5)
M = lim ?s = ?i .
s>?
i=0

Эту матрицу называют долгосрочным мультипликатором. Ее также можно
записать в виде
p ?1
?1
I?
M =B ?j .
j=1

Последняя формула следует из того, что
?
p ?1
?1
I? ? i Li (см. 23.3 и 23.3).
B ?j =
j=1 i=0

Для того чтобы это показать, надо подставить 1 вместо L.


23.4. Прогнозирование с помощью векторной
авторегрессии и разложение дисперсии
Поскольку лаги исследуемых переменных полагаются величинами известны-
ми, то построение прогнозов по ним в гораздо меньшей степени, чем в системах
одновременных уравнений, осложняется проблемой получения точных значений
факторов.
Для упрощения формул мы будем исходить из того, что нам известны истин-
ные параметры процесса. Пусть известны значения xt временного ряда VAR для
t = 1, . . . , T . Сделаем прогноз на ( T + 1)-й период. Это математическое ожидание
xT +1 , условное относительно имеющейся на момент T информации x1 , . . . , xT .
При расчетах удобно действовать так, как если бы была известна вся предыстория
процесса:
?T = (xT , . . . , x1 , x0 , . . . ).
Выводы от этого не изменятся. Таким образом, будем использовать ожидания,
условные относительно ?T .
Искомый прогноз равен
p p
xp (1) = E(xT +1 |?T ) = E(xT +1?j |?T )?j + E(vT +1 |?T ) = xT +1?j ?j ,
T
j=1 j=1
663
23.4. Прогнозирование с помощью векторной авторегрессии

где мы воспользовались тем, что E(vT +1 |?T ) = 0 и что все xt в правой части
уравнения регрессии входят в предысторию ?T .
Чтобы получить формулу прогноза на s периодов, возьмем от обеих частей
уравнения для процесса VAR математическое ожидание, условное относительно
?T . Получим
p
xp (s) = E(xT +s |?T ) = E(xT +s?j |?T )?j .
T
j=1

По этой формуле прогнозы вычисляются рекуррентно, причем E (xt |?T ) = xt
при t T , и E (xt |?T ) = xp (t ? T ) при t > T .
T
Заметим, что построение прогнозов не требует знания структурной формы мо-
дели. Таким образом, чтобы построить прогноз, достаточно оценить приведенную
форму без наложения ограничений обычным МНК. Это делает VAR очень удобным
инструментом прогнозирования: не требуется анализировать, как взаимосвязаны
переменные, какая переменная на какую влияет.
Ошибка прогноза — это
ds = xT +s ? xp +s = xT +s ? E(xT +s |?T ).
T

Чтобы найти эту ошибку, воспользуемся разложением Вольда для xT +k :
?
xT +s = ?T +s?i ?i .
i=0

Очевидно, что ошибки ?T +1 , . . . , ?T +s непредсказуемы и их ожидаемые зна-
чения относительно ?T равны нулю, поэтому
?
xp (s) = E(xT +s |?T ) = ?T +s?i ?i .
T
i=s

Таким образом, ошибка прогноза равна:
s?1
ds = ?T +s?i ?i .
i=0
Прогноз является несмещенным, поскольку E(d) = 0.
Ковариационная матрица ошибки прогноза находится по формуле:
? ?
s?1 s?1
?ds = E(ds ds |?T ) = E? ?T +s?i ?i |?T ? =
?T +s?i ?i
i=0 i=0
s?1 s?1
?i E ? T +s?i ?T +s?i |?T ?i =
= ?i ??i .
i=0 i=0
664 Глава 23. Векторные авторегрессии

При выводе формулы мы воспользовались тем, что ошибки структурной фор-
мы ?t не автокоррелированы и их ковариационная матрица равна var(?t ) = ?.
Можно выразить ковариационную матрицу ошибки прогноза также и через кова-
риационную матрицу ошибок приведенной формы:
s?1
?ds = ?i B ?B?i .
i=0


Поскольку в структурной форме ошибки разных уравнений некоррелированы,
2 2
т.е. ? = diag(?1 , . . . , ?k ), то можно разложить ковариационную матрицу ошибки
прогноза на составляющие, соответствующие отдельным ошибкам ?tl . Обозначим
l-ю строку матрицы ?i через ?il . Вектор ?il представляет собой функцию реакции
на импульсы влияния ?t?i,l на все переменные xt . Тогда

s?1 s?1 k k s?1
?il ?l2 ?il ?il ?l2 ?il .
?ds = ?i ??i = =
i=0 i=0 l=1 l=1 i=0

Таким образом, ошибке l-го уравнения соответствует вклад в ковариационную
матрицу ошибки прогноза равный
s?1
?il ?l2 ?il .
i=0

Можно интерпретировать j-й диагональный элемент этой матрицы как вклад
ошибки l-го уравнения ?t,l в дисперсию ошибки прогноза j-й изучаемой пере-
2
менной xt,j при прогнозе на s периодов. Обозначим этот вклад через ?jl,s :

s?1
2
? il ?l2 ?il
?jl,s = .
i=0 jj


Можем вычислить также долю каждой из ошибок в общей дисперсии ошибки
прогноза j-й изучаемой переменной:
2
?jl,s
2
Rjl,s = .
k
2
?jr,s
r=1

2
Набор этих долей Rjl,s , где l = 1, . . . , k, представляет собой так называе-
мое разложение дисперсии ошибки прогноза для структурной векторной авторе-
грессии.
665
23.5. Причинность по Грейнджеру

23.5. Причинность по Грейнджеру

В эконометрике наиболее популярной концепцией причинности является при-
чинность по Грейнджеру. Это связано, прежде всего, с ее относительной просто-
той, а также с относительной легкостью определения ее на практике.
Причинность по Грейнджеру применяется к компонентам стационарного век-
торного случайного процесса: может ли одна из этих переменных быть причиной
другой переменной. В основе определения лежит хорошо известный постулат, что
будущее не может повлиять на прошлое.
Этот постулат Грейнджер рассматривал в информационном аспекте. Для того
чтобы определить, является ли переменная x причиной переменной y, следует
выяснить, какую часть дисперсии текущего значения переменной y можно объяс-
нить прошлыми значениями самой переменной y и может ли добавление прошлых
значений переменной x улучшить это объяснение. Переменную x называют при-
чиной y, если x помогает в предсказании y с точки зрения уменьшения дисперсии.
В контексте векторной авторегрессии переменная x будет причиной y, если ко-
эффициенты при лагах x статистически значимы. Заметим, что часто наблюдается
двухсторонняя причинная связь: x является причиной y, и y является причиной x.
Рассмотрим причинность по Грейнджеру для двух переменных. Приведенная
форма модели имеет вид:

p p
xt = aj xt?j + bj yt?j + vt ,
j=1 j=1
p p
yt = cj xt?j + dj yt?j + wt .
j=1 j=1


Отсутствие причинной связи от x к y означает, что cj = 0 при j = 1, . . . , p,
т.е. что прошлые значения x не влияют на y . Отсутствие причинной связи от y
к x означает, что bj = 0 при j = 1, . . . , p.
Когда процесс стационарен, тогда гипотезы о причинной связи можно прове-
рять с помощью F -статистики. Нулевая гипотеза заключается в том, что одна
переменная не является причиной по Грейнджеру для другой переменной. Дли-
ну лага p следует выбрать по самому дальнему лагу, который еще может помочь
в прогнозировании.
Следует понимать, что причинность по Грейнджеру — это не всегда то, что при-
нято называть причинностью в общем смысле. Причинность по Грейнджеру связана
скорее с определением того, что предшествует чему, а также с информативностью
переменной с точки зрения прогнозирования другой переменной.
666 Глава 23. Векторные авторегрессии

23.6. Коинтеграция в векторной авторегрессии
Векторная авторегрессия представляет собой также удобный инструмент
для моделирования нестационарных процессов и коинтеграции между ними (о ко-
интеграции см. в гл. 17).
Предположим, что в векторной авторегрессии xt , задаваемой уравнением
p
(23.6)
xt = xt?j ?j + vt ,
j=1

отдельные составляющие процессы xtj либо стационарны, I(0), либо интегриро-
ваны первого порядка, I(1). Рассмотрим в этой ситуации коинтеграцию CI(1, 0).
Для упрощения забудем о том, что согласно точному определению коинтегриро-
ванные вектора сами по себе должны быть нестационарными. Линейную комби-
нацию стационарных процессов по этому упрощающему определению тоже будем
называть коинтегрирующей комбинацией. Таким образом, будем называть коин-
тегрирующим вектором рассматриваемого процесса векторной авторегрессии xt
такой вектор c = 0, что xt c является I(0).
Если векторный процесс состоит из более чем двух процессов, то может суще-
ствовать несколько коинтегрирующих векторов.
Поскольку коинтегрирующая комбинация — это линейная комбинация, то как
следствие, любая линейная комбинация коинтегрирующих векторов, не равная
нулю, есть опять коинтегрирующий вектор. В частности, если c1 и c2 — два ко-
интегрирующих вектора и c = ?1 c1 + ?2 c2 = 0, то c — тоже коинтегрирующий
вектор. Таким образом, коинтегрирующие вектора фактически образуют линейное
подпространство с выколотым нулем, которое принято называть коинтегрирую-
щим подпространством.
Обозначим через ? матрицу, соответствующую произвольному базису коинте-
грирующего подпространства процесса xt . Это k ? r матрица, где r — размер-
ность коинтегрирующего подпространства. Размерность r называют рангом ко-
интеграции. Столбцы ? — это линейно независимые коинтегрирующие вектора.
Для удобства анализа преобразуем исходную модель (23.6) векторной авторе-
грессии. Всегда можно переписать векторную авторегрессию в форме векторной
модели исправления ошибок (vector error-correction model, VECM):
p?1
?xt = xt?1 ? + ?xt?j ?j + vt ,
j=1

p p
где ?j = ? ?i , ? = ?(I ? ?i ) = ??(1).
i=j+1 i=1
667
23.6. Коинтеграция в векторной авторегрессии

При сделанных нами предположениях первые разности ?xt должны быть ста-
p?1
ционарными. Отсюда следует, что процесс xt?1 ? = ?xt ? ?xt?j ?j ? vt ста-
j=1
ционарен как линейная комбинация стационарных процессов. Это означает, что
столбцы матрицы ? — это коинтегрирующие вектора (либо нулевые вектора).
Любой такой вектор можно разложить по базису коинтегрирующего подпростран-
ства, ?. Составим из коэффициентов таких разложений k ? r матрицу ?, так что
? = ?? . Ранг матрицы ? не может превышать r. Укажем без доказательства,
что при сделанных предположениях ранг матрицы ? в точности равен r.
Таким образом, мы получили следующую запись для векторной модели исправ-
ления ошибок:
p?1
?xt = xt?1 ?? + ?xt?j ?j + vt ,
j=1


где ? отвечает за скорость исправления отклонений от равновесия (матрица кор-
ректирующих коэффициентов), ? — матрица коинтеграционных векторов.
Можно рассмотреть два крайних случая: r = 0 и r = k. Если r = 0, то ? = 0
и не существует стационарных линейных комбинаций процесса xt . Если r = k, то
? имеет полный ранг и любая комбинация xt стационарна, т.е. все составляющие
процессы являются I(0). О собственно коинтеграции можно говорить лишь при
0 < r < k.
До сих пор мы не вводили в модель детерминированные компоненты. Одна-
ко, вообще говоря, можно ожидать, что в модель входят константы и линейные
тренды, причем они могут содержаться как в самих рядах, так и в коинтеграцион-
ных уравнениях. Рассмотрим векторную модель исправления ошибок с константой
и трендом:

p?1
?xt = µ0 + µ1 t + xt?1 ?? + ?xt?j ?j + vt ,
j=1


где µ0 и µ1 — вектора-строки длиной k. Вектор µ0 соответствует константам,
а вектор µ1 — коэффициентам линейных трендов. Можно выделить пять основных
случаев, касающихся статуса векторов µ0 и µ1 в модели. В таблице 23.1 они
перечислены в порядке перехода от частного к более общему.
Здесь ?0 и ?1 — вектора-строки длины r.
Случай 0 легко понять — константы и тренды в модели полностью отсутствуют.
В случае 1? константа входит в коинтеграционное пространство и тем самым
в корректирующие механизмы, но не входит в сам процесс xt в виде дрейфа. Это
668 Глава 23. Векторные авторегрессии


Таблица 23.1
µ0 = 0 µ1 = 0
Случай 0

Случай 1? µ0 = ?0 ? µ1 = 0

µ1 = 0
Случай 1 µ0 произвольный

Случай 2? µ0 произвольный µ1 = ?1 ?

Случай 2 µ0 произвольный µ1 произвольный


несложно увидеть, если переписать модель следующим образом:
p?1
?xt = (?0 + xt?1 ?) ? + ?xt?j ?j + vt .
j=1


В случае 1 µ0 можно записать как µ0 = µ? + ?0 ? , где µ0 входит в коинтегра-
0
? соответствует дрейфу в векторной модели исправления
ционное пространство, а µ0
ошибок:
p?1
µ?
?xt = + (?0 + xt?1 ?) ? + ?xt?j ?j + vt .
0
j=1


Дрейф в модели исправления ошибок означает, что процесс xt содержит ли-
нейный тренд4 .
Аналогичные рассуждения верны по отношению к временному тренду в случаях
2? и 2. В случае 2? тренд входит в коинтеграционное пространство, но не входит
в xt в виде квадратичного тренда. В случае 2 тренд входит и в коинтеграционное
пространство, и в xt в виде квадратичного тренда.


23.7. Метод Йохансена
Наряду с методом Энгла—Грейнджера (см. п. 17.6), еще одним популярным ме-
тодом нахождения стационарных комбинаций нестационарных переменных явля-
ется метод Йо? хансена. Этот метод, по сути дела, распространяет методику Дики—
Фуллера (см. 17.4) на случай векторной авторегрессии. Помимо оценивания ко-
интегрирующих векторов, метод Йохансена также позволяет проверить гипотезы
о ранге коинтеграции (количестве коинтегрирующих векторов) и гипотезы о виде
коинтегрирующих векторов.
4
Это аналог ситуации для скалярного авторегрессионного процесса с дрейфом.
669
23.7. Метод Йохансена

Перечислим преимущества, которые дает метод Йохансена по сравнению с ме-
тодом Энгла—Грейнджера:
1) Метод Энгла—Грейнджера применим, только когда между нестационарными
переменными есть всего одно коинтегрирующее соотношение. Если ранг коинте-
грации больше 1, то метод дает бессмысленные результаты.
2) Метод Энгла—Грейнджера статичен, в нем не учитывается краткосрочная
динамика.
3) Результаты метода Йохансена не зависят от нормировки, использованной
при оценивании, в то время как метод Энгла—Грейнджера может дать существенно
отличающиеся результаты в зависимости от того, какая переменная стоит в левой
части оцениваемой коинтеграционной регрессии.
Пусть векторный процесс xt = (x1t , . . . , xkt ) описывается векторной авторе-
грессией p-го порядка, причем каждая из компонент является I(1) или I(0). Пред-
полагается, что ошибки, относящиеся к разным моментам времени, независимы
и распределены нормально с нулевым математическим ожиданием и ковариацион-
ной матрицей ?. Как указывалось выше, можно записать векторную авторегрессию
в форме векторной модели исправления ошибок:
p?1
?xt = xt?1 ? + ?xt?j ?j + vt .
j=1

В методе Йохансена оцениваемыми параметрами являются k ? k матрицы
коэффициентов ?j и ?, а также ковариационная матрица ?. Имея оценки ?j и ?,
можно получить оценки коэффициентов приведенной формы модели по следующим
формулам:
?1 = I + ?1 + ?,
?j = ?j ? ?j?1 , j = 2, . . . , p ? 1,
?p = ??p?1 .

Ранг коинтеграции r считается известным. Ограничения на ранг коинтеграции
задаются как ограничения на матрицу ?. Как сказано выше, в предположении, что
ранг коинтеграции равен r, ранг матрицы ? тоже равен r, и эту матрицу можно
представить в виде произведения двух матриц:
? = ?? ,
где ? и ? имеют размерность k ? r. Таким образом, в дальнейших выкладках
используется представление:
p?1
?xt = xt?1 ?? + ?xt?j ?j + vt .
j=1
670 Глава 23. Векторные авторегрессии

Матрица ? состоит из коинтегрирующих векторов. Заметим, что если бы мат-
рица ? была известна (естественно, с точностью до нормировки), то отклонения
от равновесия xt ? тоже были бы известны, и мы имели бы дело с линейными
уравнениями регрессии, которые можно оценить посредством МНК. В методе Йо-
хансена исходят из того, что матрицу ? требуется оценить.
Для оценивания модели используется метод максимального правдоподобия.
Плотность распределения ошибок vt по формуле для многомерного нормаль-
ного распределения равна
1 ?1 v )
(2?)?k/2 |?|? /2 e(? 2 vt ?
1
.
t




Обозначим через ? вектор, состоящий из параметров ?, ? и ?j . Для данного
? остатки модели равны
p?1
vt (?) = ?xt ? xt?1 ?? ? ?xt?j ?j .
j=1


Используя это обозначение, можем записать функцию правдоподобия:
1 T
v (?)??1 vt (?))
?T / (? 2
?kT /2
|?| 2 t=p t
L(?, ?) = (2?) e .

Заметим, что это функция правдоподобия, в которой за неимением данных
в сумме пропущены первые p наблюдений.
Логарифмическая функция правдоподобия равна
T
kT T 1
ln(2?) + ln |??1 | ? vt (?)??1 vt (?).
ln L(?, ?) = ?
2 2 2 t=p

При данном ? максимум функции правдоподобия по ? достигается при

1T
? = ?(?) = v (?)vt (?).
T t=p t

Это можно доказать, дифференцируя логарифмическую функцию правдоподобия
по ??1 (см. Приложение A.2.2).
Можно показать, что для этой матрицы выполнено
T
vt (?)??1 (?)vt (?) = T k.
t=p
671
23.7. Метод Йохансена

С учетом этого максимизация функции правдоподобия эквивалентна миними-
зации определителя матрицы ?(?) по ? или
T
vt (?)vt (?) > min!
?
t=p

Тем самым мы получили, что метод максимального правдоподобия сводится
к максимизации некоторой обобщенной суммы квадратов. По аналогии со сказан-
ным выше ясно, что при данной матрице ? можно получить оценки максимального
правдоподобия для остальных неизвестных параметров обычным методом наимень-
ших квадратов. Кроме того, при данных ?, ? можно получить оценки ?j методом
наименьших квадратов из регрессий:
p?1
?xt ? xt?p ?? = ?xt?j ?j + vt .
j=1

Оценим отдельно регрессии ?xt и xt?p по переменным, стоящим в правой
части данного уравнения:
p?1
?xt = ?xt?j Sj + r0t ,
j=1
p?1
xt?p = ?xt?j Tj + rpt ,
j=1

где Sj , Tj — коэффициенты регрессий.
Получим из них остатки r0t и rpt . Отсюда при данных ? и ? получим остатки
исходной модели:

vt = vt (?, ?) = r0t ? rpt ?? .

В этих обозначениях задача нахождения оценок приобретает вид:
T
(r0t ? rpt ?? ) (r0t ? rpt ?? ) > min!
?, ?
t=p


Для нахождения матриц ? и ? Йохансен использовал процедуру, известную
как регрессия с пониженным рангом. Она состоит в следующем. На основе остатков
r0t и rpt формируются выборочные ковариационные матрицы остатков:

1T
Mij = r rjt , i, j = 0, p,
T t=1 it
672 Глава 23. Векторные авторегрессии

и задача переписывается в виде

M00 ? ?? Mp0 ? M0p ?? + ?? Mpp ?? > min!
?,?


Минимизация по ? при данном ? дает

?(?) = M0p ?(? Mpp ?)?1 ,

откуда следует задача минимизации уже только по ?:

M00 ? M0p ?(? Mpp ?)?1 ? Mp0 > min!
?


Очевидно, что отсюда нельзя однозначно найти ?. Для нахождения ? удобно
ввести следующую нормировку: ? Mpp ? = Ir . Оказывается, что с учетом данного
нормирующего ограничения последняя задача минимизации эквивалентна следую-
щей обобщенной задаче поиска собственных значений5 :
?1
Mp0 M00 M0p ? ?Mpp c = 0,

где c — собственный вектор, а собственные значения ? находятся как решения
уравнения:
?1
Mp0 M00 M0p ? ?Mpp = 0.

Матрица ? находится в виде собственных векторов, соответствующих r наи-
большим собственным значениям, где r — ранг коинтеграции. Пусть собственные
числа упорядочены по убыванию, т.е.

?1 ?2 ... ?k .

Тогда следует выбрать первые r этих чисел, ?1 , . . . , ?r . Столбцами матрицы ?
будут соответствующие вектора c1 , . . . , cr .
Обобщенную задачу поиска собственных значений можно свести к стандартной
1/2
задаче, если найти какую-либо матрицу Mpp , являющуюся квадратным корнем
1/2 1/2
матрицы Mpp , т.е. Mpp = Mpp Mpp :

?1
?1/2 ?1/2
Mp0 M00 M0p Mpp ? ?I
Mpp c = 0,

5
Она напоминает метод наименьшего дисперсионного отношения для оценивания систем одно-
временных уравнений (см. п. 10.3). Также это напрямую связано с так называемой теорией кано-
нических корреляций. (См. Бриллинджер Д. Временные ряды. Обработка данных и теория. — М.:
«Мир», 1980.)
673
23.7. Метод Йохансена

1/2
где c = Mpp c.
Напомним еще раз, что ? определяется только с точностью до некоторой нор-
мировки. Мы уже использовали нормировку ? Mpp ? = Ir , которая выбрана из
соображений удобства вычислений. Однако нормировку предпочтительнее выби-
рать, исходя из экономической теории рассматриваемых процессов. Поэтому сле-
дует умножить полученную оценку ? справа на квадратную неособенную r ? r
матрицу, которая бы привела коинтеграционные вектора к более удобному для
экономической интерпретации виду.
После того как найдена оценка максимального правдоподобия для ?, вычисля-
ются оценки других параметров. Для этого можно использовать в обратном поряд-
ке все те подстановки, которые мы сделали при упрощении задачи максимизации
функции правдоподобия. Можно также использовать эквивалентную процедуру:
сразу получить оценки ? и ?j , применив метод наименьших квадратов к исходной
регрессии.
Для проверки гипотез о ранге коинтеграции r используется статистика отноше-
ния правдоподобия. Пусть нулевая гипотеза состоит в том, что ранг коинтеграции
равен r0 , а альтернативная гипотеза — что ранг коинтеграции равен ra ( ra > r0 ).
Обозначим максимальное значение функции правдоподобия, полученное в предпо-
ложении, что ранг равен r, через Lr . Тогда статистика отношения правдоподобия
равна (см. раздел 18.3.3):
LR(r0 , ra ) = 2(ln Lra ? ln Lr0 ).

Подставив в функцию правдоподобия полученные оценки, можно вывести сле-
дующее выражение для максимального значения логарифма функции правдоподо-
бия (с точностью до константы):
Tr
ln Lr = ? ln(1 ? ?i ) + const.
2 i=1

Поэтому
ra
LR(r0 , ra ) = ?T ln(1 ? ?i ).
i=r0 +1

Особенно полезны с точки зрения поиска коинтеграционного ранга два частных
случая статистики отношения правдоподобия.
Статистика следа используется для проверки нулевой гипотезы о том, что ранг
коинтеграции равен r, против альтернативной гипотезы о том, что ранг равен k
(количеству переменных). Статистика имеет вид:
k
= LR(r, k) = ?T ln(1 ? ?i ).
trace
LR
i=r+1
674 Глава 23. Векторные авторегрессии

Проверка гипотез проводится последовательно для r = k ? 1, . . . , 0 и за-
канчивается, когда в первый раз не удается отклонить нулевую гипотезу. Можно
проводить проверку гипотез и в обратном порядке r = 0, . . . , k ? 1. В этом случае
она заканчивается, когда нулевая гипотеза будет отвергнута в первый раз.
Можно также использовать статистику максимального собственного значе-
ния, которая используется для проверки нулевой гипотезы о том, что ранг равен r,
против альтернативной гипотезы о том, что ранг равен r + 1. Эта статистика равна:
LR??max = LR(r, r + 1) = ? ln(1 ? ?r+1 ).

Обе статистики имеют нестандартные асимптотические распределения. Эти
асимптотические распределения не зависят от мешающих параметров, а зависят
только от k?r, и от того, как входят в модель константа и тренд (см. перечисленные
на стр. 668 пять основных случаев).
Методом Монте-Карло получены таблицы LRtrace и LR??max для всех пяти
случаев и нескольких значений k ? r (на данный момент имеются таблицы для
k ? r = 1, . . . , 12). Также в последние годы разрабатываются различного рода
аппроксимации для этих нестандартных распределений.
Как и в случае критерия ADF (см. п. 17.4), очень важным вопросом является
выбор длины лага p (порядка авторегрессии). Способы, по сути дела, являются
теми же самыми. Для проверки гипотез о длине лага можно использовать критерий
отношения правдоподобия, который в данном случае имеет обычное распределе-
ние ?2 . Если процесс состоит из k компонент, и проверяется гипотеза о том, что
следует увеличить p на единицу, то количество степеней свободы соответствую-
щей статистики равно k. Важно также, чтобы в выбранной модели отсутствовала
автокорреляция остатков, поскольку это одно из предположений модели.
Метод Йохансена можно использовать также для оценивания моделей с ли-
нейными ограничениями на матрицу коинтегрирующих векторов ? или на матрицу
корректирующих коэффициентов ?. Для проверки таких ограничений удобно ис-
пользовать все тот же тест отношения правдоподобия, который здесь имеет обыч-
ное асимптотическое распределение ?2 .


23.8. Коинтеграция и общие тренды
Рассмотрим модель VAR(1) с интегрированными переменными и ее представ-
ление в виде модели исправления ошибок:
(23.7)
?xt = xt?1 ?? + vt .

Поскольку матрица ? состоит из коинтегрирующих векторов, то отклонения от
равновесия xt ? являются I(0), и для них существует разложение Вольда. Выведем
675
23.8. Коинтеграция и общие тренды

его. Для этого сначала умножим уравнение модели на ?:

?xt ? = xt?1 ?? ? + vt ?,

откуда:

xt ? = xt?1 ?(? ? + I) + vt ?.

Имеем для стационарного вектора xt ? авторегрессию, из которой можем пред-
ставить xt ? в виде бесконечного скользящего среднего (разложение Вольда):
?
vt?i ?(? ? + I)i .
xt ? =
i=0

Подставив это выражение в исходную модель (23.7), получим также разложение
Вольда для приростов ?xt :
?
vt?i ?(? ? + I)i?1 ? + vt ,
?xt =
i=1

или
?
?xt = vt?i Ci = vt C(L),
i=0

где мы ввели обозначения Ci для матричных коэффициентов скользящего средне-
го. Несложно подсчитать, пользуясь формулой бесконечной геометрической про-
грессии, что соответствующий долгосрочный мультипликатор равен

C(1) = I ? ?(? ?)?1 ? . (23.8)
? ?
Ci? C ? (L) Ci? Li . При этом выполнено следующее
=?
Обозначим Ci и =
j=i+1 i=0
разложение для C(L):

C(L) = ?C ? (L) + C(1).

Кроме того, можно показать, что C ? (L) соответствует стационарному процессу.
Все это позволяет разделить процесс ?xt на сумму двух составляющих:

?xt = ?vt C ? (L) + vt C(1).

Следовательно, xt можно представить следующим образом:

xt = vt C ? (L) + vt C(1),
?
(23.9)
676 Глава 23. Векторные авторегрессии

?
где vt — это векторный процесс случайного блуждания, построенный на основе
?
vt (проинтегрированный vt ): vt = ?vt .
Первое слагаемое в разложении xt (23.9) стационарно, а второе представляет
собой линейную комбинацию процессов I(1).
Если воспользоваться тождеством
I = ?? (? ? ?? )?1 ? + ?(? ?)?1 ? ,
?

где ?? и ?? — это (k ? r) ? k матрицы полного ранга, такие что ? ?? = 0
и ? ?? = 0, то матрицу C(1), опираясь на (23.8), можно представить как
C(1) = ?? (? ? ?? )?1 ? ? .

Таким образом, процесс xt можно представить в виде6 :
xt = vt C ? (L) + vt ?? (? ? ?? )?1 ? ? .
?


?
Элементы вектора vt ?? являются общими стохастическими трендами. Отсюда
видно, что k-мерный VAR-процесс с рангом коинтеграции r можно выразить через
k ? r линейно независимых общих трендов. Матрица (? ? ?? )?1 ? ? содержит
коэффициенты («нагрузки») этих общих трендов.
Представление через общие тренды служит основой для еще одного метода
оценивания коинтеграционных регрессий — метода Стока—Уотсона.


23.9. Упражнения и задачи
Упражнение 1

В таблице 23.2 приведены данные о потребительских расходах C и доходах Y
в США в млрд. долл., очищенные от сезонности.

1.1. Нарисуйте график потребления и доходов. Что можно сказать об этих рядах
по графикам?
1.2. Создайте первые разности логарифмов для обоих рядов. Нарисуйте график
и сделайте выводы.
1.3. Предположим, что существует структурная зависимость между потреблени-
ем и доходами. А именно, потребление C зависит от текущих доходов и,
вследствие привычек, от лагов потребления:
Ct = ?1 + ?2 Yt + ?3 Ct?1 + ?C .
t
6
Это так называемое разбиение на цикл и тренд Бевериджа—Нельсона (см. п. 17.2).
677
23.9. Упражнения и задачи


Таблица 23.2. (Источник: Temple University Department of Economics
Econometrics II Multivariate Time Series;
OOO »»O???O NO? ? U» OOON ?» U O »I OOO UOOO » U O? ON)

Квартал C Y Квартал C Y Квартал C

1947.1 192.5 202.3 1952.1 220 231.1 1957.1 268.9 291.1
1947.2 196.1 197.1 1952.2 227.7 240.9 1957.2 270.4 294.6
1947.3 196.9 202.9 1952.3 223.8 245.8 1957.3 273.4 296.1
1947.4 197 202.2 1952.4 230.2 248.8 1957.4 272.1 293.3
1948.1 198.1 203.5 1953.1 234 253.3 1958.1 268.9 291.3
1948.2 199 211.7 1953.2 236.2 256.1 1958.2 270.9 292.6
1948.3 199.4 215.3 1953.3 236 255.9 1958.3 274.4 299.9
1948.4 200.6 215.1 1953.4 234.1 255.9 1958.4 278.7 302.1
1949.1 199.9 212.9 1954.1 233.4 254.4 1959.1 283.8 305.9
1949.2 203.6 213.9 1954.2 236.4 254.8 1959.2 289.7 312.5
1949.3 204.8 214 1954.3 239 257 1959.3 290.8 311.3
1949.4 209 214.9 1954.4 243.2 260.9 1959.4 292.8 313.2
1950.1 210.7 228 1955.1 248.7 263 1960.1 295.4 315.4
1950.2 214.2 227.3 1955.2 253.7 271.5 1960.2 299.5 320.3
1950.3 225.6 232 1955.3 259.9 276.5 1960.3 298.6 321
1950.4 217 236.1 1955.4 261.8 281.4 1960.4 299.6 320.1
1951.1 223.3 230.9 1956.1 263.2 282
1951.2 214.5 236.3 1956.2 263.7 286.2
1951.3 217.5 239.1 1956.3 263.4 287.7
1951.4 219.8 240.8 1956.4 266.9 291



В свою очередь, текущие доходы зависят от лагов доходов (из-за инерции)
и от лагов потребления (по принципу мультипликатора):
Yt = ?1 + ?2 Yt?1 + ?3 Ct?1 + ?Y .
t

Оцените параметры структурной формы модели при помощи МНК по ис-
ходным данным. Затем проделайте то же самое, используя преобразованные
данные из пункта 1.2 (разности логарифмов). Объясните, имеют ли два по-
лученных набора оценок одинаковый смысл. Какие оценки предпочтительнее
и почему?
1.4. Перепишите модель в приведенной форме. Укажите взаимосвязь между ко-
эффициентами структурной и приведенной форм. Оцените приведенную фор-
му модели по исходным данным и по преобразованным данным. Какие оценки
предпочтительнее и почему?
678 Глава 23. Векторные авторегрессии

1.5. Добавьте еще по одному лагу в оба уравнения приведенной формы. Оцените
коэффициенты по исходным данным и по преобразованным данным и про-
ведите тесты причинности по Грейнджеру. Что можно сказать о направлении
причинности по полученным результатам?

1.6. Проверьте ряды на наличие единичных корней, используя тест Дики—
Фуллера.

1.7. Примените к исходным данным и к логарифмам исходных данных метод Йо-
хансена, используя в модели 4 лага разностей.


Упражнение 2

В таблице 23.3 даны макроэкономические показатели по США (поквартальные
данные получены на основе помесячных данных): Infl — темп инфляции, рассчи-
танный по формуле: 400(ln(CPIt ) ? ln(CPIt?1 )), где CPI — индекс потребитель-
ских цен, т.е. логарифмический темп прироста цен в процентах из расчета за год;
UnRate — уровень безработицы (процент населения); FedFunds — эффективная
процентная ставка по межбанковским краткосрочным кредитам овернайт (в про-
центах годовых).

2.1. Оцените параметры векторной авторегрессии 4-го порядка, предполагая,
что текущая инфляция влияет на текущую безработицу и процентную ставку,
а текущая безработица влияет на текущую процентную ставку (рекурсивная
система).

2.2. Оцените модель в приведенной форме, пропуская последнее наблюдение,
и получите точечный прогноз на один период. Сравните прогнозы с фактиче-
скими значениями.


Упражнение 3

В таблице 23.4 приведены данные из статьи Турмана и Фишера, посвящен-
ной вопросу о том, что первично — куры или яйца. Это годовые данные по США
за 1930–1983 гг. о производстве яиц в миллионах дюжин и о поголовье кур (ис-
ключая бройлерные).

3.1. Проведите тест причинности по Грейнджеру между двумя рядами. Сделайте
выводы относительно направления причинности.

3.2. Для каждого ряда проведите тест Дики—Фуллера на наличие единичных
корней, используя лаги от 0 до 12. Выберите нужную длину лага, используя
679
23.9. Упражнения и задачи


Таблица 23.3. (Источник: The Federal Reserve Bank of St. Louis, database FRED II,
OOO »»O ? O ??O?OU ? ?OO » O ?)

Квартал Infl UnRate FedFunds Квартал Infl UnRate FedFunds
1962–4 0.000 5.533 2.923
1954–3 –1.490 5.967 1.027
1963–1 1.314 5.767 2.967
1954–4 0.000 5.333 0.987
1963–2 1.309 5.733 2.963
1955–1 0.000 4.733 1.343
1963–3 1.305 5.500 3.330
1955–2 –1.495 4.400 1.500
1963–4 2.597 5.567 3.453
1955–3 2.985 4.100 1.940
1964–1 0.000 5.467 3.463
1955–4 0.000 4.233 2.357
1964–2 1.292 5.200 3.490
1956–1 0.000 4.033 2.483
1964–3 1.288 5.000 3.457
1956–2 4.436 4.200 2.693
1964–4 2.564 4.967 3.577
1956–3 2.930 4.133 2.810
1965–1 0.000 4.900 3.973
1956–4 2.909 4.133 2.927
1965–2 3.816 4.667 4.077
1957–1 4.324 3.933 2.933
1965–3 0.000 4.367 4.073
1957–2 2.857 4.100 3.000
1965–4 3.780 4.100 4.167
1957–3 2.837 4.233 3.233
1966–1 3.744 3.867 4.557
1957–4 2.817 4.933 3.253
1966–2 2.477 3.833 4.913
1958–1 5.575 6.300 1.863
1966–3 4.908 3.767 5.410
1958–2 0.000 7.367 0.940
1966–4 1.218 3.700 5.563
1958–3 0.000 7.333 1.323
1967–1 1.214 3.833 4.823
1958–4 1.382 6.367 2.163
1967–2 3.620 3.833 3.990
1959–1 0.000 5.833 2.570
1967–3 3.587 3.800 3.893
1959–2 1.377 5.100 3.083
1967–4 4.734 3.900 4.173
1959–3 2.740 5.267 3.577
1968–1 3.514 3.733 4.787
1959–4 1.363 5.600 3.990
1968–2 4.638 3.567 5.980
1960–1 0.000 5.133 3.933
1968–3 4.585 3.533 5.943
1960–2 2.712 5.233 3.697
1968–4 5.658 3.400 5.917
1960–3 0.000 5.533 2.937
1969–1 5.579 3.400 6.567
1960–4 2.694 6.267 2.297
1969–2 5.502 3.433 8.327
1961–1 0.000 6.800 2.003
1969–3 5.427 3.567 8.983
1961–2 0.000 7.000 1.733
1969–4 6.417 3.567 8.940
1961–3 2.676 6.767 1.683
1970–1 6.316 4.167 8.573
1961–4 0.000 6.200 2.400
1970–2 5.188 4.767 7.880
1962–1 2.658 5.633 2.457
1970–3 4.103 5.167 6.703
1962–2 0.000 5.533 2.607
1970–4 6.076 5.833 5.567
1962–3 2.640 5.567 2.847
680 Глава 23. Векторные авторегрессии


Таблица 23.3. (продолжение)

Квартал Infl UnRate FedFunds Квартал Infl UnRate FedFunds
1971–1 2.005 5.933 3.857 1979–2 12.950 5.700 10.180
1971–2 4.969 5.900 4.563 1979–3 12.006 5.867 10.947
1971–3 2.952 6.033 5.473 1979–4 13.220 5.967 13.577
1971–4 2.930 5.933 4.750 1980–1 16.308 6.300 15.047
1972–1 2.909 5.767 3.540 1980–2 11.809 7.333 12.687
1972–2 2.888 5.700 4.300 1980–3 6.731 7.667 9.837
1972–3 3.819 5.567 4.740 1980–4 11.745 7.400 15.853
1972–4 3.783 5.367 5.143 1981–1 10.058 7.433 16.570
1973–1 8.382 4.933 6.537 1981–2 8.487 7.400 17.780
1973–2 7.306 4.933 7.817 1981–3 11.330 7.400 17.577
1973–3 8.949 4.800 10.560 1981–4 4.274 8.233 13.587
1973–4 9.618 4.767 9.997 1982–1 2.542 8.833 14.227
1974–1 12.753 5.133 9.323 1982–2 9.599 9.433 14.513
1974–2 9.918 5.200 11.250 1982–3 2.876 9.900 11.007
1974–3 12.853 5.633 12.090 1982–4 0.000 10.667 9.287
1974–4 10.147 6.600 9.347 1983–1 1.634 10.367 8.653
1975–1 6.877 8.267 6.303 1983–2 5.266 10.133 8.803
1975–2 5.268 8.867 5.420 1983–3 4.004 9.367 9.460
1975–3 8.141 8.467 6.160 1983–4 3.964 8.533 9.430
1975–4 7.260 8.300 5.413 1984–1 5.874 7.867 9.687
1976–1 2.867 7.733 4.827 1984–2 3.098 7.433 10.557
1976–2 4.969 7.567 5.197 1984–3 3.839 7.433 11.390
1976–3 6.299 7.733 5.283 1984–4 3.045 7.300 9.267
1976–4 5.517 7.767 4.873 1985–1 4.899 7.233 8.477
1977–1 8.136 7.500 4.660 1985–2 2.613 7.300 7.923
1977–2 5.995 7.133 5.157 1985–3 2.226 7.200 7.900
1977–3 5.255 6.900 5.820 1985–4 5.147 7.033 8.103
1977–4 6.473 6.667 6.513 1986–1 –1.464 7.033 7.827
1978–1 7.001 6.333 6.757 1986–2 1.098 7.167 6.920
1978–2 9.969 6.000 7.283 1986–3 2.188 6.967 6.207
1978–3 9.126 6.033 8.100 1986–4 2.899 6.833 6.267
1978–4 8.334 5.900 9.583 1987–1 5.022 6.600 6.220
1979–1 11.612 5.867 10.073 1987–2 4.608 6.267 6.650
681
23.9. Упражнения и задачи


Таблица 23.3. (продолжение)

Квартал Infl UnRate FedFunds Квартал Infl UnRate FedFunds
1987–3 4.207 6.000 6.843 1995–4 2.085 5.567 5.720
1987–4 3.126 5.833 6.917 1996–1 4.137 5.533 5.363
1988–1 3.102 5.700 6.663 1996–2 3.075 5.500 5.243
1988–2 5.117 5.467 7.157 1996–3 2.545 5.267 5.307
1988–3 5.053 5.467 7.983 1996–4 3.535 5.333 5.280
1988–4 3.997 5.333 8.470 1997–1 1.756 5.233 5.277
1989–1 4.940 5.200 9.443 1997–2 1.000 5.000 5.523
1989–2 6.171 5.233 9.727 1997–3 2.489 4.867 5.533
1989–3 2.250 5.233 9.083 1997–4 1.486 4.667 5.507
1989–4 4.779 5.367 8.613 1998–1 0.494 4.633 5.520
1990–1 7.219 5.300 8.250 1998–2 1.970 4.400 5.500
1990–2 4.023 5.333 8.243 1998–3 1.716 4.533 5.533
1990–3 7.927 5.700 8.160 1998–4 2.196 4.433 4.860
1990–4 5.099 6.133 7.743 1999–1 0.972 4.300 4.733
1991–1 1.784 6.600 6.427 1999–2 3.143 4.267 4.747
1991–2 3.545 6.833 5.863 1999–3 4.073 4.233 5.093
1991–3 2.930 6.867 5.643 1999–4 2.377 4.067 5.307
1991–4 3.488 7.100 4.817 2000–1 5.180 4.033 5.677
1992–1 2.596 7.367 4.023 2000–2 3.029 3.967 6.273
1992–2 2.865 7.600 3.770 2000–3 3.007 4.067 6.520
1992–3 2.845 7.633 3.257 2000–4 2.298 3.933 6.473
1992–4 3.387 7.367 3.037 2001–1 3.195 4.167 5.593
1993–1 2.801 7.133 3.040 2001–2 4.295 4.467 4.327
1993–2 2.782 7.067 3.000 2001–3 0.449 4.833 3.497
1993–3 1.936 6.800 3.060 2001–4 –1.801 5.600 2.133
1993–4 3.570 6.633 2.990 2002–1 2.698 5.633 1.733
1994–1 2.181 6.567 3.213 2002–2 2.903 5.833 1.750
1994–2 2.169 6.200 3.940 2002–3 2.440 5.767 1.740
1994–3 3.769 6.000 4.487 2002–4 1.545 5.900 1.443
1994–4 2.138 5.633 5.167 2003–1 5.034 5.767 1.250
1995–1 2.921 5.467 5.810 2003–2 –0.653 6.167 1.247
1995–2 3.162 5.667 6.020 2003–3 3.039 6.133 1.017
1995–3 1.833 5.667 5.797
682 Глава 23. Векторные авторегрессии


Таблица 23.4. (Источник: Thurman, Walter N. and Mark E. Fisher,
“Chickens, Eggs, and Causality”,
American Journal of Agricultural Economics 70 (1988), p. 237–238.)

яйца
куры куры яйца
1930 468491 3581 1957 391363 5442
1931 449743 3532 1958 374281 5442
1932 3327 1959
436815 387002 5542
1933 444523 3255 1960 369484 5339
1934 3156 1961
433937 366082 5358
1935 389958 3081 1962 377392 5403
1936 3166 1963
403446 375575 5345
1937 423921 3443 1964 382262 5435
1938 3424 1965
389624 394118 5474
1939 418591 3561 1966 393019 5540
1940 3640 1967
438288 428746 5836
1941 422841 3840 1968 425158 5777
1942 4456 1969
476935 422096 5629
1943 542047 5000 1970 433280 5704
1944 5366 1971
582197 421763 5806
1945 516497 5154 1972 404191 5742
1946 5130 1973
523227 408769 5502
1947 467217 5077 1974 394101 5461
1948 5032 1975
499644 379754 5382
1949 430876 5148 1976 378361 5377
1950 5404 1977
456549 386518 5408
1951 430988 5322 1978 396933 5608
1952 426555 5323 1979 400585 5777
1953 5307 1980
398156 392110 5825
1954 396776 5402 1981 384838 5625
1955 5407 1982
390708 378609 5800
1956 5500 1983
383690 364584 5656
683
23.9. Упражнения и задачи

информационные критерии Акаике и Шварца. Сделайте вывод о том, явля-
ются ли ряды стационарными. Как полученный результат может повлиять на
интерпретацию результатов упражнения 3.1?

3.3. Проверьте с помощью методов Энгла—Грейнджера и Йохансена, коинтегри-
рованы ли ряды. Как полученный результат может повлиять на интерпрета-
цию результатов упражнения 3.1?


Упражнение 4

В таблице 23.5 приведены поквартальные макропоказатели по Великобритании
из обзорной статьи Мускателли и Хурна: M — величина денежной массы (агрегат
M1 ); Y — общие конечные расходы на товары и услуги (TFE) в постоянных ценах
(переменная, моделирующая реальные доходы); P — дефлятор TFE (индекс цен);
R — ставка по краткосрочным казначейским векселям (переменная, соответству-
ющая альтернативной стоимости хранения денег). Изучается связь между тремя
переменными: ln M ? ln P — реальная денежная масса (в логарифмах); ln Y —
реальный доход (в логарифмах); R — процентная ставка.

4.1. Найдите ранг коинтеграции и коинтегрирующие вектора методом Йохансе-
на, используя векторную модель исправления ошибок (VECM) с четырьмя

<<

стр. 25
(всего 28)

СОДЕРЖАНИЕ

>>