<<

стр. 18
(всего 28)

СОДЕРЖАНИЕ

>>

2
с единичной дисперсией: ?? = 1.
Если в уравнении (14.42) k > q, то все кросс-корреляции равны нулю, поэтому

(14.43)
?k = ?1 ?k?1 + . . . + ?p ?k?p , k > q.
459
14.5. Смешанные процессы авторегрессии — скользящего среднего

Поделив это выражение на ?0 , выводим уравнение автокорреляционной функции
для k > q:

(14.44)
?k = ?1 ?k?1 + . . . + ?p ?k?p ,

или

?(L)?k = 0, k > q.

Таким образом, начиная с некоторой величины задержки, а точнее, когда q < p,
поведение автокорреляционной функции стационарного процесса ARMA(p, q)
определяется, как и в случае чистой авторегрессии AR(p), однородным конеч-
но-разностным уравнением (14.44). В свою очередь, решение этого конечно-
разностного уравнения определяется корнями характеристического уравнения
?(z) = 0. То есть при q < p автокорреляционная функция будет состоять из ком-
бинации затухающих экспонент и экспоненциально затухающих синусоид4 .
По аналогии с AR(p) условия стационарности ARMA(p, q) определяются кор-
нями характеристического уравнения ?(L) = 0: если эти корни лежат вне единич-
ного круга, то процесс стационарен.
В качестве примера рассмотрим процесс ARMA(1, 1):

xt = ?xt?1 + ?t ? ??t?1 , (14.45)

или через лаговый оператор:

(1 ? ?L)xt = (1 ? ?L)?t .

Процесс стационарен, если ?1 < ? < 1, и обратим, если ?1 < ? < 1.
Для вывода формулы автокорреляционной функции умножим (14.45) на xt?k
и перейдем к математическим ожиданиям:

E(xt?k xt ) = ?E(xt?k xt?1 ) + E(xt?k ?t ) ? ?E(xt?k ?t?1 ),

или

?k = ??k?1 + ??k ? ??1?k . (14.46)

Исследуем поведение автоковариационной функции при различных значениях па-
раметра k.
4
Заметим, что граничные условия у AR(p) другие, поэтому автокорреляционные функции не будут
совпадать.
Глава 14. Линейные стохастические модели ARIMA
460

При k = 0

?0 = ???1 + ?0 ? ??1 . (14.47)

Чтобы найти второе слагаемое, умножим уравнение процесса (14.45) на ?t
и возьмем математическое ожидание:
2
?0 = E(xt ?t ) = ?E(xt?1 ?t ) + E(?t ?t ) ? ?E(?t ?t?1 ) = ?? . (14.48)

Аналогичным способом распишем E(xt ?t?1 ):
2
?1 = E(xt ?t?1 ) = ?E(xt?1 ?t?1 ) + E(?t?1 ?t ) ? ?E(?t?1 ?t?1 ) = (? ? ?)?? .
2
Равенство E(xt?1 ?t?1 ) = ?? подтверждается так же, как (14.48).
Итак, принимая во внимание, что ?k = ??k , выражение для дисперсии запи-
сывается как
2 2
?0 = ??1 + ?? ? ?(? ? ?)?? . (14.49)

При k = 1 равенство (14.46) преобразуется в

?1 = ??0 + ??1 ? ??0 .

Используя ранее приведенные доводы относительно математических ожиданий,
стоящих в этом уравнении, имеем:
2
?1 = ??0 ? ??? . (14.50)

При k 2

?k = ??k?1 .

Выразим автоковариации в (14.49) и (14.50) через параметры модели ? и ?.
Получим систему уравнений
2 2
?0 = ??1 + ?? ? ?(? ? ?)?? ;
2
?1 = ??0 ? ??? ;
и решим ее относительно ?0 и ?1 .
Решение имеет вид:
1 ? 2?? + ? 2 2
?0 = ?? ,
1 ? ?2
(? ? ?)(1 ? ??) 2
?1 = ?? .
1 ? ?2
461
14.5. Смешанные процессы авторегрессии — скользящего среднего

?1

1
?
?
k
k
1 1


k

k ?
k
1


–1 k



?
1
?1 ? 1
k
?
k
1
1

k
?
k
–1
1
k

k

–1


?1


Рис. 14.4. График автокорреляционной функции процесса ARMA(1, 1)


С учетом того, что ?k = ?k /?0 , получаем выражения для автокорреляционной
функции процесса ARMA(1, 1):
?
? ? = (? ? ?)(1 ? ??) ,
?1
2
1 ? 2?? + ?
?
?
?k = ?k?1 ?1 , k 2.

На рисунке 14.4 изображены графики автокорреляционной функции процесса
ARMA(1, 1) при различных сочетаниях значений параметров ? и ?.
По аналогии с процессами AR(p) и MA(q) выводится формула спектра процесса
ARMA(p, q). Пусть {?t } — такой процесс, что
?t = ?t ? ?1 ?t?1 ? . . . ? ?q ?t?q .
Тогда xt , описываемый уравнением (14.41), можно записать в виде
xt = ?1 xt?1 + . . . + ?p xt?p + ?t .
Глава 14. Линейные стохастические модели ARIMA
462

По формуле (14.4), с одной стороны,
2
p(f ) = px (f ) = p? (f ) 1 ? ?1 e?i2?f ? ?2 e?i4?f ? . . . ? ?p e?i2p?f ,

а с другой стороны, для процесса скользящего среднего {?t } выполняется
2
2??
?
p (f ) = 2.
1 ? ?1 e?i2?f ? ?2 e?i4?f ? . . . ? ?q e?i2q?f

Таким образом, получаем
2
1 ? ?1 e?i2?f ? ?2 e?i4?f ? . . . ? ?q e?i2q?f
2
(14.51)
p(f ) = 2?? 2.
e?i2?f e?i4?f e?i2p?f
1 ? ?1 ? ?2 ? . . . ? ?p


Представление процесса ARMA в виде MA(?)
и функция реакции на импульсы

Так же, как и в случае авторегрессии, стационарный процесс ARMA можно
записать в виде модели линейного фильтра, или, другими словами, скользящего
среднего бесконечного порядка MA(?):
?
?(L)
?i ?t?i = ?(L)?t , (14.52)
xt = ?t = ?t + ?1 ?t?1 + ?2 ?t?2 + . . . =
?(L) i=0

где ?0 = 1.
Коэффициенты ?i представляют собой функцию реакции на импульсы для
процесса ARMA, т.е. ?i является количественным измерителем того, как неболь-
шое изменение («импульс») в ?t влияет на x через i периодов, т.е. на xt+i , что
можно символически записать как
dxt+i
?i = .
d?t

Один из способов вычисления функции реакции на импульсы сводится к ис-
пользованию уравнения

?(z)?(z) = ?(z),

или

(1 ? ?1 z ? ?2 z 2 ? . . . ? ?p z p )(1 + ?1 z + ?2 z 2 + . . . ) = (1 ? ?1 z ? . . . ? ?q z q ),
14.6. Модель ARIMA 463

из которого, приравнивая коэффициенты в левой и правой частях при одинаковых
степенях z, можно получить выражения для ?i .
Более простой способ состоит в том, чтобы продифференцировать по ?t урав-
нение ARMA-процесса, сдвинутое на i периодов вперед,
p q
?j xt+i?j + ?t+i ?
xt+i = ?j ?t+i?j ,
j=1 j=1
p
dxt+i dxt+i?j
? ?i ,
= ?j
d?t d?t
j=1

где ?0 = ?1 и ?j = 0 при j > q. Таким образом, получим рекуррентную формулу
для ?i = dxt+i /d?t :
p
?j ?i?j ? ?i .
?i =
j=1

При расчетах по этой формуле следует положить ?0 = 1 и ?i = 0 при i < 0.
Если процесс ARMA является обратимым5, то полученное представление в виде
MA(?) является разложением Вольда этого процесса.


14.6. Модель авторегрессии —
проинтегрированного скользящего
среднего ARIMA
Характерной особенностью стационарных процессов типа ARMA(p, q) являет-
ся то, что корни ?i характеристического уравнения ?(L) = 0 находятся вне еди-
ничного круга. Если один или несколько корней лежат на единичной окружности
или внутри нее, то процесс нестационарен.
Теоретически можно предложить много различных типов нестационарных мо-
делей ARMA(p, q), однако, как показывает практика, наиболее распространен-
ным типом нестационарных стохастических процессов являются интегрированные
процессы или, как их еще называют, процессы с единичным корнем. Единичным
называют корень характеристического уравнения, равный действительной едини-
це: ?i = 1.
5
Разложение Вольда необратимого процесса, у которого некоторые корни характеристического
уравнения по модулю больше единицы, такое же, как у эквивалентного обратимого процесса. Ошибки
однопериодных прогнозов, лежащие в основе разложения Вольда, при этом не будут совпадать
с ошибками модели ?t .
Глава 14. Линейные стохастические модели ARIMA
464

мнимая
часть
1



действительная
часть
–1 1




–1


Рис. 14.5. Корни характеристического уравнения процесса
xt = 2.8xt?1 ? 3.1xt?2 + 1.7xt?3 ? 0.4xt?4 + ?t + 0.5?t?1 ? 0.4?t?2
на комплексной плоскости



Рассмотрим в качестве примера следующий процесс ARMA(4, 2):

xt = 2.8xt?1 ? 3.1xt?2 + 1.7xt?3 ? 0.4xt?4 + ?t + 0.5?t?1 ? 0.4?t?2 . (14.53)

Характеристическое уравнение этого процесса имеет следующие корни: ?1 = 1 +
+ i, ?2 = 1 ? i, ?3 = 1.25, ?4 = 1. Все корни лежат за пределами единичного
круга, кроме последнего, который является единичным. Эти корни изображены
на рисунке 14.5.
Оператор авторегрессии этого процесса можно представить в следующем виде:

1 ? 2.8L + 3.1L2 ? 1.7L3 + 0.4L4 = (1 ? 1.8L + 1.3L2 ? 0.4L3 )(1 ? L) =
= (1 ? 1.8L + 1.3L2 ? 0.4L3 )?,

где ? = 1 ? L — оператор первой разности.
Введем обозначение wt = ?xt = xt ? xt?1 . Полученный процесс {wt } явля-
ется стационарным процессом ARMA(3, 2), задаваемым уравнением:

wt = 1.8wt?1 ? 1.3wt?2 + 0.4wt?3 + ?t + 0.5?t?1 ? 0.4?t?2 . (14.54)

В общем случае, если характеристическое уравнение процесса ARMA(p + d, q)
содержит d единичных корней, а все остальные корни по модулю больше единицы,
то d-я разность этого временного ряда

wt = ?d xt = ?(L)(1 ? L)d xt

может быть представлена как стационарный процесс ARMA(p, q):

?(L)?d xt = ?(L)?t или ?(L)wt = ?(L)?t . (14.55)
14.6. Модель ARIMA 465

В развернутой форме модель 14.55 выглядит как

(14.56)
wt = ?1 wt?1 + ?2 wt?2 + . . . + ?p wt?p +
+ ?t ? ?1 ?t?1 ? ?2 ?t?2 ? . . . ? ?q ?t?q .

Из-за практического значения такую разновидность моделей ARMA выделяют
в отдельный класс моделей авторегрессии — проинтегрированного скользяще-
го среднего и обозначают ARIMA(p, d, q). При d = 0 модель описывает стацио-
нарный процесс. Как и исходную модель ARMA, модель ARIMA также называют
моделью Бокса—Дженкинса.
Обозначив f (L) = ?(L)(1 ? L)d , представим процесс ARMA(p + d, q) в виде:

f (L)xt = ?(L)?t .

f (L) называют обобщенным (нестационарным) оператором авторегрессии, таким,
что d корней характеристического уравнения f (z) = 0 равны единице, а остальные
по модулю больше единицы. Такой процесс можно записать в виде модели ARIMA

?(L)(1 ? L)d xt = ?(L)?t . (14.57)

Ряд {xt } называют интегрированным, поскольку он является результатом при-
менения к стационарному ряду {wt } операции кумулятивной (накопленной) суммы
d раз. Так, если d = 1, то для t > 0
t
xt = wi + x0 .
i=1

Этим объясняется название процесса авторегрессии — проинтегрированного
скользящего среднего ARIMA(p, d, q).
Этот факт можно символически записать как

xt = S d wt ,

где S = ??1 = (1 ? L)?1 — оператор суммирования, обратный к оператору
разности. Следует понимать, однако, что оператор S не определен однозначно,
поскольку включает некоторую константу суммирования.
Простейшим процессом с единичным корнем является случайное блуждание:

xt = S?t ,

где ?t — белый шум.
Глава 14. Линейные стохастические модели ARIMA
466

14.7. Оценивание, распознавание и диагностика
модели Бокса—Дженкинса
Для практического моделирования с использованием модели Бокса—Джен-
кинса требуется выбрать порядок модели (значения p, q и d), оценить ее пара-
метры, а затем убедиться, правильно ли была выбрана модель и не нарушаются ли
какие-либо предположения, лежащие в ее основе.
Заметим, что один и тот же процесс может быть описан разными моделя-
ми ARMA (14.41). Во-первых, неоднозначна компонента скользящего среднего
?(L)?t , о чем говорилось выше. Из разных возможных представлений MA здесь
следует предпочесть обратимое. Во-вторых, характеристические многочлены ав-
торегрессии и скользящего среднего могут содержать общие корни. Пусть ?(z)
и ?(z) содержат общий корень ?. Тогда характеристические многочлены можно
представить в виде ?(z) = (1 ? z/?)?? (z) и ?(z) = (1 ? z/?)? ? (z). Соответ-
ственно, один и тот же процесс можно записать как

?(L)xt = ?(L)?t

или как

?? (L)xt = ? ? (L)?t .

Ясно, что вторая запись предпочтительнее, поскольку содержит меньше парамет-
ров. Указанные неоднозначности могут создавать проблемы при оценивании.
Прежде, чем рассмотреть оценивание, укажем, что уравнение (14.41) задает
модель в довольно ограничительной форме. А именно, стационарный процесс, за-
данный уравнением (14.41), должен иметь нулевое математическое ожидание. Для
того чтобы сделать математическое ожидание ненулевым, можно ввести в модель
константу:

xt = µ + ?1 xt?1 + . . . + ?p xt?p + ?t ? ?1 ?t?1 ? . . . ? ?q ?t?q .

Если процесс {xt } стационарен, то
µ
E(xt ) = .
1 ? ?1 ? · · · ? ?p
Альтернативно можно задать xt как

(14.58)
xt = ? + wt ,

где ошибка {wt } является стационарным процессом ARMA:

wt = ?1 wt?1 + . . . + ?p wt?p + ?t ? ?1 ?t?1 ? . . . ? ?q ?t?q . (14.59)
14.7 Оценивание, распознавание и диагностика модели ARIMA 467

При этом E(xt ) = ?. Ясно, что для стационарных процессов два подхода являются
эквивалентными.
Последнюю модель можно развить, рассматривая регрессию

(14.60)
xt = Zt ? + wt ,

с ошибкой wt в виде процесса (14.59). В этой регрессии Zt не должны быть
коррелированы с процессом wt и его лагами. Составляющая Zt может включать
детерминированные тренды, сезонные переменные, фиктивные переменные для
выбросов и т.п.


Метод моментов для оценивания параметров
модели Бокса—Дженкинса

Опишем в общих чертах процедуру оценивания ARIMA(p, d, q). Предположим,
что имеется ряд x1 , . . . , xT , по которому требуется оценить параметры процес-
са. Оценке подлежат три типа параметров: параметры детерминированной части
модели (такие как ?, ?, о которых речь шла выше), авторегрессионные парамет-
ры ? и параметры скользящего среднего ?. При оценивании предполагается, что
порядок разности d, порядок авторегрессии p и порядок скользящего среднего q
заданы.
Если ряд {xt } описывается моделью (14.58) (которая предполагает d = 0),
то параметр ? этой модели можно оценить с помощью среднего x, а далее дей-
?
ствовать так, как если бы процесс сразу задавался моделью (14.59). В качестве wt
рассматриваются центрированные значения, полученные как отклонения исходных
уровней временного ряда от их среднего значения: wt = xt ? x.
?
Если ряд {xt } описывается более общей моделью (14.60), которая тоже пред-
полагает d = 0, то можно оценить параметры ? с помощью обычного МНК,
который дает здесь состоятельные, но не эффективные оценки a. Далее можно
взять wt = xt ? Zt a и действовать так, как если бы процесс задавался моделью
(14.59).
При d > 0 от ряда xt следует взять d-е разности: wt = ?d xt . Мы не бу-
дем рассматривать оценивание детерминированной составляющей в случае d > 0.
Заметим только, что исходный ряд не нужно центрировать, поскольку уже первые
разности исходных уровней ряда совпадают с первыми разностями центрирован-
ного ряда. Имеет смысл центрировать d-е разности ?d xt .
Проведя предварительное преобразование ряда, мы сведем задачу к оценива-
нию стационарной модели ARMA (14.59), где моделируемая переменная wt имеет
нулевое математическое ожидание. Получив ряд w1 , . . . , wT (при d > 0 ряд будет
Глава 14. Линейные стохастические модели ARIMA
468

на d элементов короче), можно приступить к оцениванию параметров авторегрес-
сии и скользящего среднего.
Выше мы рассмотрели, как можно оценивать авторегрессии на основе урав-
нений Юла—Уокера (14.21). Прямое использование этого метода для модели
ARMA(p, q) при q > 0 невозможно, поскольку в соответствующие уравнения будут
входить кросс-ковариации между изучаемым процессом и ошибкой (см. 14.42). Од-
нако можно избавиться от влияния элементов скользящего среднего, если сдвинуть
уравнения на q значений вперед. Тогда уравнения для автокорреляций будут иметь
вид (14.43). При k = q + 1, . . . , q + p получим следующую систему (т.е. исполь-
зуем здесь тот же подход, что и раньше: умножаем (14.59) на wt?q?1 , . . . , wt?q?p
и переходим к математическому ожиданию):
?
? ?q+1 = ?1 ?q + ?2 ?q?1 + . . . + ?p ?q?p+1 ,
?
?
?
??
q+2 = ?1 ?q+1 + ?2 ?q + . . . + ?p ?q?p+2 ,
(14.61)
? ···
?
?
?
?
?q+p = ?1 ?q+p?1 + ?2 ?q+p?2 + . . . + ?p ?q .

В итоге имеем систему, состоящую из p уравнений относительно p неизвестных
параметров ?j . Решение этих уравнений, в которых вместо ?k берутся эмпириче-
ские значения автоковариаций ck для последовательности значений {wt }, т.е.

T
1
ck = wt wt?k ,
T t=k+1


дает нам оценки параметров ?1 , . . . , ?p 6 .
С помощью оценок авторегрессионных параметров можно, с учетом (14.59)
построить новый временной ряд ?p+1 , . . . , ?T :

?t = wt ? ?1 wt?1 ? . . . ? ?p wt?p ,

? ?
и для него рассчитать первые q выборочных автокорреляций r1 , . . . , rq . Полу-
ченные автокорреляции используются при расчете начальных оценок параметров
скользящего среднего ?1 , . . . , ?q .
6
На данный метод получения оценок параметров авторегрессии можно смотреть как на примене-
ние метода инструментальных переменных к уравнению регрессии:

wt = ?1 wt?1 + . . . + ?p wt?p + ?t ,

где ошибка ?t является MA(q) и поэтому коррелирована с лагами wt только вплоть до q-го.
В качестве инструментов здесь используются лаги wt?q?1 , . . . , wt?q?p .
14.7 Оценивание, распознавание и диагностика модели ARIMA 469

Действительно, {?t } фактически представляет собой процесс скользящего
среднего:

?t = ?t ? ?1 ?t?1 ? · · · ? ?q ?t?q , (14.62)

для которого, как мы знаем, первые q автокорреляций могут быть выражены через
параметры модели (см. (14.36)):
??k + ?1 ?k+1 + ?2 ?k+2 + . . . + ?q?k ?q
?? = , k = 1, . . . , q.
2 2 2
k
1 + ?1 + ?2 + . . . + ?q

Заменив в этих выражениях ?? на rk , решаем полученную систему q нелинейных
?
k
уравнений относительно q неизвестных параметров ? и получаем их оценки.
Поскольку система уравнений нелинейная, то могут возникнуть некоторые про-
блемы с ее решением. Во-первых, система может не иметь решений. Во-вторых,
решение может быть не единственным.
Рассмотрим в качестве примера случай q = 1. При этом имеем одно уравнение
с одним неизвестным:
??1
?
r1 = 2.
1 + ?1

Максимальное по модулю значение правой части 1 2 достигается при ?1 = ±1. Ес-
? ?
ли |r1 | > 1 2 , то уравнение не имеет действительного решения7 . Если |r1 | < 1 2 ,
то оценку ?1 получим, решая квадратное уравнение. А оно будет иметь два корня:
?
1 ? 4(r1 )2
?1 ±
?1 = .
?
2r1
Один из корней по модулю больше единицы, а другой меньше, т.е. один соответ-
ствует обратимому процессу, а другой — необратимому.
Таким образом, из нескольких решений данных уравнений следует выбирать та-
кие, которые соответствуют обратимому процессу скользящего среднего. Для это-
го, если некоторые из корней характеристического уравнения скользящего средне-
го по модулю окажутся больше единицы, то их следует обратить и получить коэф-
фициенты, которые уже будут соответствовать обратимому процессу (см. 14.40).
Для q > 1 следует применить какую-либо итеративную процедуру решения
нелинейных уравнений8 .
7
Если решения не существует, то это может быть признаком того, что порядок разности d выбран
неверно или порядок авторегрессии p выбран слишком низким.
8
Например, метод Ньютона, состоящий в линеаризации нелинейных уравнений в точке текущих
приближенных параметров (т.е. разложение в ряд Тейлора до линейных членов).
Глава 14. Линейные стохастические модели ARIMA
470

Описанный здесь метод моментов дает состоятельные, но не эффективные
(не самые точные) оценки параметров. Существует ряд методов, позволяющих
повысить эффективность оценок.


Методы уточнения оценок

Система (14.61) при q > 1 основана на уравнениях для автоковариаций, ко-
торые сдвинуты на q. Поскольку более дальние выборочные автоковариации вы-
числяются не очень точно, то это приводит к не очень точным оценкам параметров
авторегрессии. Чтобы повысить точность, можно предложить следующий метод.
С помощью вычисленных оценок ?1 , . . . , ?q , на основе соотношения (14.62),
находим последовательность значений {?t } по рекуррентной формуле:

?t = ?t + ?1 ?t?1 + . . . + ?q ?t?q .

В качестве ?t?j при t j берем математическое ожидание ряда E(?t ) = 0.
Получив с помощью предварительных оценок ? и ? последовательность зна-
чений {?t } и имея в наличии ряд {wt }, методом наименьших квадратов находим
уточненные оценки параметров модели (14.59), рассматривая ?t в этом уравнении
как ошибку.
Можно также получить уточненные оценки параметров детерминированной
компоненты ? в модели (14.60). Для этого можно использовать обобщенный ме-
тод наименьших квадратов (см. гл. 8), основанный на оценке ковариационной мат-
рицы ошибок wt , которую можно получить, имея некоторые состоятельные оценки
параметров процесса ARMA.
Автоковариационную матрицу процесса ARMA можно представить в виде
2
? = ?? ?. Оценку матрицы ? можно получить, имея оценки параметров авто-
регрессии и скользящего среднего (см. выше вывод автоковариационной функции
процесса ARMA). Имея оценку ?, воспользуемся обобщенным МНК для оцени-
вания параметров регрессии:

aОМНК = (Z ??1 Z)?1 Z ??1 X.

Можно использовать также автокорреляционную матрицу R:

aОМНК = (Z R?1 Z)?1 Z R?1 X.

В качестве примера приведем регрессию с процессом AR(1) в ошибке. Матрица
автокорреляций для стационарного процесса AR(1), соответствующего последова-
14.7 Оценивание, распознавание и диагностика модели ARIMA 471

тельности значений w1 , . . . , wT , имеет вид:
? ?
?2 · · · ?T ?1 ?
?1 ?
? ?
? ?
?? ?T ?2 ?
···
? ?
1 ?
? ?
? ?
R = ? ?2 ?T ?3 ? .
···
? 1
? ?
? ?
?. .?
. . ..
?. . . .?
.
?. . . .?
? ?
?T ?1 ?T ?2 ?T ?3 · · · 1

Несложно убедиться, что обратная к R матрица имеет вид:
? ?
?? ···
?1 0?
0 0
? ?
? ?
??? (1 + ?2 ) 0?
?? ···
? ?
0
? ?
? ?
?0 0?
(1 + ?2 )
?? ··· 0
? ?
?1
R =? ?.
?. .?
. . .
..
?. .?
. . .
.
. . . . .?
?
? ?
? ?
· · · (1 + ?2 )
?0 ???
0 0
? ?
? ?
··· ??
0 0 0 1

Матрицу R?1 легко представить в виде произведения: R?1 = D D, где
? ?
? 1 ? ?2 0 ··· 0?
0
? ?
? ?
? ?? 0?
0 ···
? ?
1
? ?
? ?
D=? 0 ?.
?? 1 · · ·
0
? ?
? ?
? .?
. . . ..
. . . .?
? .
. . . .?
?
? ?
0 ···
0 0 1

Далее можем использовать полученную матрицу D для преобразования в про-
странстве наблюдений:
Z ? = DZ, X ? = DX, (14.63)
тогда полученные в преобразованной регрессии с помощью обычного МНК оценки
будут оценками обобщенного МНК для исходной регрессии:
aОМНК = (Z ? Z ? )?1 Z ? X ? .
Глава 14. Линейные стохастические модели ARIMA
472


0.8

0.8

0.6

0.6

0.4

0.4

0.2

0.2

0

0
0 50 100 150 200
50 100 150 200
0



Рис. 14.6. Автокорреляционная функция интегрированного процесса (слева) и стационарного
процесса (справа)




Они будут обладать не только свойством состоятельности, но и свойством эффек-
тивности.
К примеру, для парной регрессии xt = ?zt + wt , где w = ?wt?1 + ?t , преоб-
разование (14.63) приводит к уравнениям

1 ? ?2 x1 = ? 1 ? ?2 z1 + ??
1

и

xt ? ?xt?1 = ?(zt ? ?zt?1 ) + ?? , t > 1,
t

для оценивания которых при данном ? применим обычный МНК.
После получения эффективных оценок параметров регрессии можно пере-
смотреть оценки параметров процесса ARMA. Можно продолжать такие итера-
ции и далее до тех пор, пока не будет достигнута требуемая сходимость (см. метод
Кочрена—Оркатта, описанный в п. 8.3).


Распознавание порядка модели

Сначала вычисляются разности исходного ряда до тех пор, пока они не окажутся
стационарными относительно математического ожидания и дисперсии, и отсюда
получают оценку d.
Если процесс является интегрированным, то его выборочная автокорреляци-
онная функция затухает медленно, причем убывание почти линейное. Если же
автокорреляционная функция затухает быстро, то это является признаком стаци-
онарности. В качестве примера на рисуке 14.6 слева изображена коррелограмма
14.7 Оценивание, распознавание и диагностика модели ARIMA 473

ряда длиной в 1000 наблюдений, полученного по модели ARIMA(3, 1, 2), заданной
уравнением (14.53). Справа на том же рисунке изображена коррелограмма первых
разностей того же ряда, которые подчиняются стационарной модели ARMA(3, 2),
заданной уравнением (14.54).
Формальные критерии выбора d рассматриваются в пункте 17.4.
Следует понимать, что достаточно сложно отличить процесс, который имеет
единичный корень, от стационарного процесса, в котором есть корень близкий
к единице.
Если d окажется меньше, чем требуется, то дальнейшее оценивание будет
применяться к нестационарному процессу, что должно проявиться в оценках па-
раметров авторегрессии — в сумме они будут близки к единице. Если d ока-
жется больше, чем требуется, то возникнет эффект избыточного взятия разности
(overdifferencing), который проявляется в том, что в характеристическом уравнении
скользящего среднего появляется единичный корень. Это может создать трудности
при оценивании скользящего среднего.
Для выбора порядка авторегрессии можно использовать выборочную частную
автокорреляционную функцию. Как известно, теоретическая частная автокорреля-
ционная функция процесса AR(p) обрывается на лаге p. Таким образом, p следует
выбрать равным порядку, при котором наблюдается последнее достаточно боль-
шое (по модулю) значение выборочной частной автокорреляционной функции. До-
верительные интервалы можно основывать на стандартной ошибке выборочного
частного коэффициента автокорреляции, которая равна примерно 1 v для по-
T
рядков выше p (для которых теоретическая автокорреляционная функция равна
нулю).
Аналогично, для выбора порядка скользящего среднего можно использовать
выборочную автокорреляционную функцию, поскольку теоретическая автокорре-
ляционная функция процесса MA(q) обрывается на лаге q. Таким образом, q следу-
ет выбрать равным порядку, при котором наблюдается последнее достаточно боль-
шое (по модулю) значение выборочной автокорреляционной функции. Стандартная
ошибка выборочного коэффициента автокорреляции тоже примерно равна 1 v .
T
Более точная формула стандартной ошибки для автокорреляции порядка k ( k > q)
T ?k
имеет вид (см. стр. 367).
T (T + 2)
Если же нет уверенности, что процесс является чистой авторегрессией или
чистым процессом скользящего среднего, то эти методы не подходят. Но, по крайней
мере, по автокорреляционной функции и частной автокорреляционной функции
можно проследить, насколько быстро угасает зависимость в ряде.
Глава 14. Линейные стохастические модели ARIMA
474

Порядок модели ARMA(p, q) можно выбирать на основе информационных кри-
териев:
информационный критерий Акаике:
2(p + q + n + 1)
AIC = ln(s2 ) + ;
e
T
байесовский информационный критерий Шварца:
(p + q + n + 1) ln T
BIC = ln(s2 ) + .
e
T

Здесь s2 — остаточная дисперсия, рассчитанная по модели, n + 1 относится
e
к дополнительным оцениваемым параметрам — константе и коэффициентам при
факторах регрессии (14.60). Порядок (p, q) выбирается посредством перебора
из некоторого множества моделей так, чтобы информационный критерий достигал
минимума. Критерий Акаике нацелен на повышение точности прогнозирования,
а байесовский критерий — на максимизацию вероятности выбора истинного по-
рядка модели.
Можно также выбирать порядок по тому принципу, что остатки должны быть
похожи на белый шум, для чего использовать проверку остатков на автокорреля-
цию. Если остатки автокоррелированы, то следует увеличить p или q.


Диагностика

В основе модели ARIMA лежит предположение, что ошибки ?t являются бе-
лым шумом. Это предполагает отсутствие автокорреляции и гомоскедастичность
ошибок. Для проверки ошибок на гомоскедастичность могут использоваться те же
критерии, которые были рассмотрены ранее в других главах. Здесь мы рассмотрим
диагностику автокорреляции ошибок.
Простейший способ диагностики — графический, состоящий в изучении кор-
релограммы и спектрограммы остатков. Кореллограмма должна показывать толь-
ко малые, статистически незначимые значения автокорреляций. Спектрограмма
должна быть достаточно «плоской», не иметь наклона и не содержать сильно вы-
деляющихся пиков.
Для формальной проверки отсутствия автокорреляции ошибок можно исполь-
зовать Q-статистику Бокса—Пирса и ее модификацию — статистику Льюнга—
Бокса, которые основаны на квадратах нескольких ( m) первых выборочных коэф-
фициентов автокорреляции9 (см. стр. 368).
9
При выборе числа m следует помнить, что при малом m, если имеется автокорреляция высокого
порядка, критерий может не показать автокорреляцию. При большом же m присутствие значитель-
475
14.8. Прогнозирование по модели Бокса—Дженкинса

Статистика Бокса—Пирса:
m
2
?
Q=n rk .
k=1

Статистика Льюнга—Бокса:
2 m
rk
Q = n(n + 2) .
n?k
k=1

Здесь в качестве rk следует использовать выборочные коэффициенты авто-
корреляции, рассчитанные на основе остатков et модели ARIMA:
n
et et?k
t=k+1
rk = .
n
e2
t
t=1

Поскольку для вычисления rk используется не белый шум, а остатки, то асимпто-
тическое распределение этих Q-статистик отличается от того, которое имеет место
для истинного белого шума, на количество параметров авторегрессии и скользя-
щего среднего, оцененных по модели, т.е. на величину (p + q). Обе статистики
асимптотически распределены как ?2 m?p?q . Как показали Льюнг и Бокс, предло-
женная ими модифицированная Q-статистика, которая придает меньший вес даль-
ним автокорреляциям, имеет распределение, которое ближе аппроксимирует свой
асимптотический аналог, поэтому более предпочтительно использовать именно ее.
Нулевая гипотеза состоит в том, что ошибка представляет собой белый шум
(автокорреляция отсутствует). Если Q-статистика превышает заданный квантиль
распределения хи-квадрат, то нулевая гипотеза отвергается и делается вывод о том,
что модель некорректна. Возможная причина некорректности — неудачный выбор
порядка модели (слишком малые значения p и q).


14.8. Прогнозирование по модели
Бокса—Дженкинса
Прогнозирование стационарного процесса ARMA

Пусть для стационарного обратимого процесса ARMA в момент t делается про-
гноз процесса x на ? шагов вперед, т.е. прогноз величины xt+? . Для упрощения
ных автокорреляций может быть не замечено при наличии большого числа незначительных. То есть
мощность критерия зависит от правильного выбора m.
Глава 14. Линейные стохастические модели ARIMA
476

рассуждений предположим, что при прогнозировании доступна вся информация
о процессе x до момента t включительно, т.е. информация, на основе которой
строится прогноз, совпадает с полной предысторией процесса

?t = (xt , xt?1 , . . . ) .

Заметим, что на основе (xt , xt?1 , . . . ) можно однозначно определить ошиб-
ки (?t , ?t?1 , . . . ) и наоборот, поэтому при сделанных предположениях ошибки
(?t , ?t?1 , . . . ) фактически входят в информационное множество. Кроме того, имея
полную предысторию, можно точно вычислить параметры процесса, поэтому будем
далее исходить из того, что параметры процесса нам известны.
Из теории прогнозирования известно, что прогнозом, минимизирующим сред-
ний квадрат ошибки, будет математическое ожидание xt+? , условное относительно
?t , т.е. E (xt+? |?t ). Убедимся в этом, воспользовавшись представлением модели
ARMA в виде модели линейного фильтра (разложением Вольда) (14.52)

xt+? = ?t+? + ?1 ?t+? ?1 + . . . + ?? ?1 ?t+1 + ?? ?t + ?? +1 ?t?1 + . . . ,

где во вторую строчку вынесены слагаемые, относящиеся к предыстории; получим
таким образом следующее представление условного математического ожидания:

E (xt+? |?t ) = E (?t+? |?t ) + ?1 E (?t+? ?1 |?t ) + . . . +
+ ?? ?1 E (?t+1 |?t ) + ?? ?t + ?? +1 ?t?1 + . . . .

Вторую строчку формулы пишем без оператора условного математического ожи-
дания, поскольку соответствующие слагаемые входят в предысторию ?t .
Будем предполагать, что условное относительно предыстории математическое
ожидание будущих ошибок равно нулю, т.е. E (?t+k |?t ) = 0 при k > 0. Это будет
выполнено, например, если все ошибки ?t независимы между собой. (Отсутствия
автокорреляции тут недостаточно. В приложении приводится пример белого шума,
для которого это неверно.) Тогда рассматриваемое выражение упрощается:

E (xt+? |?t ) = ?? ?t + ?? +1 ?t?1 + . . . ,

что дает нам линейную по ошибкам формулу для оптимального прогноза:
?
(14.64)
xt (? ) = ?? ?t + ?? +1 ?t?1 + . . . = ?? +i ?t?i ,
i=0

где мы обозначили через xt (? ) прогноз на ? периодов, сделанный в момент t.
477
14.8. Прогнозирование по модели Бокса—Дженкинса

Проверим, что эта прогнозная функция будет оптимальной (в смысле минимума
среднего квадрата ошибки) среди линейных прогнозных функций, т.е. среди про-
гнозных функций, представимых в виде линейной комбинации случайных ошибок,
входящих в предысторию:
?
? ? ? ?
xt (? ) = ?? ?t + ?? +1 ?t?1 + ?? +2 ?t?2 + ... = ?? +i ?t?i .
i=0
? ? ?
Для этого найдем веса ?? , ?? +1 , ?? +2 , . . ., которые обеспечивают минимум сред-
?
него квадрата ошибки. С учетом того, что xt+? = ?i ?t+? ?i , ошибка такого
i=0
прогноза ?t (? ) равна
? ?
?
?t (? ) = xt+? ? xt (? ) = ?i ?t+? ?i ? ?? +i ?t?i =
i=0 i=0
? ?1 ?
?
(?? +i ? ?? +i )?t?i ,
= ?i ?t+? ?i +
i=0 i=0

а средний квадрат ошибки прогноза (с учетом некоррелированности ошибок) равен

? ?
2
? ?1 ?
E[?t (? )2 ] = E ? ? ?=
(?? +i ? ?? +i )?t?i
?i ?t+? ?i +
i=0 i=0
? ?1 ?
?i ?2 ?i
2
(?? +i ? ?? +i )2 ?2
?
=E + t?i =
t+?
i=0 i=0
?
2 2 2 2 2
(?? +i ? ?? +i )2 .
?
= ?? (1 + ?1 + ?2 + ... + ?? ?1 ) + ??
i=0

?
Очевидно, что средний квадрат ошибки достигает минимума при ?? +i = ?? +i
и равен
? ?1
2 2 2
E[?t (? ) ] = ?? 1+ ?i .
i=1

Ошибка такого прогноза рассчитывается по формуле
? ?1
?t (? ) = ?i ?t+? ?i .
i=0

Из формулы видно, что эта ошибка проистекает из будущих ошибок ?t+k , которые
в момент t еще неизвестны. Беря математическое ожидание от обеих частей,
Глава 14. Линейные стохастические модели ARIMA
478

видим, что математическое ожидание ошибки прогноза равно нулю. Таким образом,
прогноз, полученный по формуле (14.64), будет несмещенным.
Из несмещенности прогноза следует, что дисперсия ошибки прогноза равна
среднему квадрату ошибки прогноза, т.е.

? ?1
2 2 2 2
?p = E[?t (? ) ] = ?? 1+ ?i .
i=1

или

? ?1
2 2 2
?p = ?? ?i ,
i=0


где ?0 = 1.
Хотя представление в виде бесконечного скользящего среднего удобно для ана-
лиза прогнозирования, однако для вычисления прогноза предпочтительнее вер-
нуться к исходному представлению модели ARMA в виде разностного уравнения
(со сдвигом на ? периодов вперед):

xt+? = ?1 xt+? ?1 + . . . + ?p xt+? ?p +
+?t+? ? ?1 ?t+? ?1 ? . . . ? ?q ?t+? ?q .


Возьмем от обеих частей уравнения условное относительно предыстории мате-
матическое ожидание:


xt (? ) = E[xt+? |?t ] = ?1 E[xt+? ?1 |?t ] + . . . + ?p E[xt+? ?p |?t ] +
+ E[?t+? |?t ] ? ?1 E[?t+? ?1 |?t ] ? . . . ? ?q E[?t+? ?q |?t ].


Введем более компактные обозначения:

E[xt+i |?t ] = xt+i , E[xt+? |?i ] = ?t+i .
? ?

В этих обозначениях


xt (? ) = xt+? = ?1 xt+? ?1 + . . . + ?p xt+? ?p +
? ? ?
+ ?t+? ? ?1 ?t+? ?1 ? . . . ? ?q ?t+? ?q . (14.65)
? ? ?
479
14.8. Прогнозирование по модели Бокса—Дженкинса

При вычислении входящих в эту формулу условных математических ожиданий
используют следующие правила:
?
?
?x , i 0,
t+i
xt+i = E[xt+i |?t ] =
?
?
?
xt (i), i > 0,
?
?
?? , i 0,
t+i
?t+i = E[?t+i |?t ] =
?
?
?
0, i > 0,

дающие удобную рекуррентную формулу для вычисления прогнозов.
Для вычисления показателя точности прогноза (дисперсии ошибки прогноза
или, что в данном случае то же самое, поскольку прогноз несмещенный, среднего
квадрата ошибки прогноза), удобно опять вернутся к представлению модели в виде
бесконечного скользящего среднего. Как мы видели, дисперсия ошибки прогно-
за равна ?p = ?? (1 + ? ?1 ?i ). Формулы для вычисления коэффициентов ?i
2 2 2
i=1
скользящего среднего приведены на стр. 462.
Мы вывели формулы для расчета точечного прогноза по модели ARMA и диспер-
сии этого прогноза. Если дополнительно предположить, что ошибки ?t подчиняют-
ся нормальному закону (т.е. представляют собой гауссовский процесс), то можно
получить также интервальный прогноз. При этом предположении при известных
значениях процесса до момента t распределение будущего значения процесса xt+?
(т.е. условное распределение xt+? |?t ) также будет нормальным со средним значе-
2
нием xt (? ) и дисперсией ?p :

2
xt+? |?t ? N xt (? ), ?p .

Учитывая это, получаем доверительный интервал для xt+? , т.е. интервальный про-
гноз:

[xt (? ) ? ?1?? ?p , xt (? ) + ?1?? ?p ] ,

или

? ?1 ? ?1
2 2
xt (? ) ? ?1?? ?? (14.66)
?i , xt (? ) + ?1?? ?? ?i ,
i=0 i=0


где ?1?? — двусторонний (1 ? ?)-квантиль стандартного нормального распреде-
ления. Это (1 ? ?) · 100-процентный доверительный интервал.
Глава 14. Линейные стохастические модели ARIMA
480

Прогнозирование процесса ARIMA

Для прогнозирования процесса ARIMA(p, d, q) при d > 0 можно воспользо-
ваться представлением его в виде ARMA(p + d, q):

f (L)xt = ?(L)?t ,

где

f (L) = 1 ? f1 L ? f2 L2 ? . . . ? fp+d Lp+d = ?(L)(1 ? L)d ,

а коэффициенты f1 , f2 , . . . , fp+d выражаются через ?1 , ?2 , . . . , ?p . В разверну-
той записи
p+d q
fj xt?j + ?t ? (14.67)
xt = ?j ?t?j .
j=1 j=1


Например, модель ARIMA(1, 1, 1),

(1 ? ?1 L)(1 ? L)xt = (1 ? ?1 L)?t ,

можно записать в виде:

xt = (1 + ?1 )xt?1 ? ?1 xt?2 + ?t ? ?1 ?t?1 = f1 xt?1 + f2 xt?2 + ?t ? ?1 ?t?1 ,

где f1 = 1 + ?1 , f2 = ??1 .
При расчетах можно использовать те же приемы, что и выше для ARMA.
Некоторую сложность представляет интерпретация ARIMA(p, d, q) в виде моде-
ли линейного фильтра, поскольку ряд модулей коэффициентов такого разложения
является расходящимся. Однако это только технические сложности обоснования
формул (в которые мы не будем вдаваться), а сами формулы фактически не меня-
ются.
Таким образом, отвлекаясь от технических тонкостей, можем записать
ARIMA(p, d, q) в виде MA(?):

?(L)
?t = ?t + ?1 ?t?1 + ?2 ?t?2 + . . . = ?(L)?t . (14.68)
xt =
f (L)

Функцию реакции на импульсы можно рассчитать по рекуррентной формуле
p+d
fj ?i?j ? ?i , (14.69)
?i =
j=1
481
14.8. Прогнозирование по модели Бокса—Дженкинса

где ?0 = 1, ?i = 0 при i < 0 и ?i = 0 при i > q.
Кроме того, прогнозы xt (? ) можно вычислять по рекуррентной формуле, ко-
торая получается из (14.67) по аналогии с (14.65):
p+d q
fj xt+? ?j + ?t+? ? (14.70)
xt (? ) = xt+? =
? ? ? ?j ?t+? ?j ,
?
j=1 j=1

где условные математические ожидания xt+i = E[xt+i |?t ] и ?t+i = E[?t+i |?t ]
? ?
рассчитываются по тому же принципу, что и в (14.65).
Таким образом, для прогнозирования в модели ARIMA можно использовать
формулы (14.70), (14.8) и (14.66), где коэффициенты ?i рассчитываются в соот-
ветствии с (14.69).
Альтернативный подход к прогнозированию в модели ARIMA(p, d, q) состоит
в том, чтобы сначала провести необходимые вычисления для wt = (1 ? L)d xt ,
т.е. процесса ARMA(p, q), который лежит в основе прогнозируемого процесса
ARIMA(p, d, q), а потом на их основе получить соответствующие показатели для xt .
Так, (14.70) можно записать в виде

E[f (L)xt+? |?t ] = E[?(L)(1 ? L)d xt+? |?t ] = E[?(L)?t+? |?t ],

т.е.

E[?(L)wt+? |?t ] = E[?(L)?t+? |?t ]

или

?(L)wt+? = ?(L)?t+? .
? ?

Здесь по аналогии wt+i = E[wt+i |?t ], причем wt+i = wt (i) (равно прогнозу) при
? ?
i > 0 и wt+i = wt+i (равно значению самого ряда) при i 0.
?
Отсюда видно, что можно получить сначала прогнозы для процесса wt по фор-
мулам (14.65), заменив xt на wt , а затем применить к полученным прогнозам
оператор S d = (1 ? L)?d , т.е. попросту говоря, просуммировать такой ряд d раз,
добавляя каждый раз нужную константу суммирования. В частности, при d = 1
получаем
i
xt (i) = xt + wt (j).
j=0

Далее, ?(L) можно записать в виде
?(L) ?(L)
= (1 ? L)?d = (1 ? L)?d ? w (L) = S d ? w (L).
?(L) =
?(L)
f (L)
Глава 14. Линейные стохастические модели ARIMA
482

Здесь ? w (L) = ?(L)/?(L) — оператор представления MA( ?) для wt . Таким
w
образом, коэффициенты ?i можно рассчитать из коэффициентов ?i . Например,
при d = 1 получаем
i
w
?i = ?j .
j=0


Получение общих формул для прогнозирования в модели
ARIMA с помощью решения разностных уравнений

Формула (14.70) представляет собой разностное уравнение для xt+? , решив
?
которое получаем в явном виде общую формулу прогноза. Проиллюстрируем этот
прием на примере процесса ARIMA(1, 1, 1), для которого f1 = 1 + ?1 , f2 = ??1 :

xt+? = (1 + ?1 )xt+? ?1 ? ?1 xt+? ?2 + ?t+? ? ?1 ?t+? ?1 . (14.71)

Берем условное математическое ожидание от обеих частей равенства (14.71),
получаем точечные прогнозы на 1, 2, . . . , ? шагов вперед.

xt (1) = (1 + ?1 )xt ? ?1 xt?1 ? ?1 ?t ,
xt (2) = (1 + ?1 )xt (1) ? ?1 xt ,
xt (3) = (1 + ?1 )xt (2) ? ?1 xt (1),
.
.
.
xt (? ) = (1 + ?1 )xt (? ? 1) ? ?1 xt (? ? 2), ? > 2.

Мы видим, что начиная с ? > q = 1 природу прогнозирующей функции опре-
деляет только оператор авторегрессии:

xt+? = (1 + ?1 )?t+? ?1 ? ?1 xt+? ?2 , ? > 1.
? x ?

Общее решение этого разностного уравнения имеет следующий вид:

xt+? = A0 + A1 ?? .
? 1

Чтобы вычислить неизвестные коэффициенты, необходимо учесть, что xt = xt и?
xt+1 = xt (1) = (1 + ?1 )xt ? ?1 xt?1 ? ?1 ?t . Получается система уравнений:
?

A0 + A1 = xt ,
A0 + A1 ?1 = (1 + ?1 )xt ? ?1 xt?1 ? ?1 ?t ,

из которой находятся A0 и A1 .
483
14.8. Прогнозирование по модели Бокса—Дженкинса

Точно так же можно рассматривать формулу (14.69) как разностное уравнение,
решая которое относительно ?i , получим в явном виде общую формулу для функции
реакции на импульсы. По формуле (14.69) получаем

?0 = 1,
?1 = (1 + ?1 )?0 ? ?1 = 1 + ?1 ? ?1 ,
?2 = (1 + ?1 )?1 ? ?1 ?0 ,
.
.
.
?i = (1 + ?1 )?i?1 ? ?1 ?i?2 , i > 1.

Легко показать, что решение этого разностного уравнения имеет следующий
общий вид:

?i = B0 + B1 ?i ,
1

1 ? ?1 ?1 ? ?1
, B1 = 1 ? B0 =
где B0 = . С учетом этого модель ARIMA(1, 1, 1)
1 ? ?1 1 ? ?1
представляется в виде:
?
B0 + B1 ?i ?t?i .
xt = 1
i=0

Используя полученную формулу для коэффициентов ?i , найдем также диспер-
сию прогноза:
? ?1 ? ?1
2 2
??
2 2 2
1 ? ?1 + (?1 ? ?1 ) ?i
?p = ?? ?i = .
1
(1 ? ?1 )2
i=0 i=0

Отметим, что в пределе слагаемые стремятся к положительному числу 1 ? ?1 .
Это означает, что с ростом горизонта прогноза ? дисперсия (а, следовательно,
ширина прогнозного интервала) неограниченно возрастает. Такое поведение дис-
персии связано с тем, что рассматриваемый процесс является нестационарным.


Прогнозирование по модели Бокса—Дженкинса
в конечных выборках

Выше мы предполагали, что в момент t известна полная предыстория
?t = (xt , xt?1 , . . . ). Фактически, однако, человеку, производящему прогноз, из-
вестен только некоторый конечный ряд (x1 , . . . , xt ). В связи с этим для практиче-
ского использования приведенных формул, требуется внести в них определенные
поправки.
Глава 14. Линейные стохастические модели ARIMA
484

В частности, параметры модели на практике не известны, и их требуется оце-
нить. Это вносит дополнительную ошибку в прогноз.
Кроме того, ошибки ?t , вообще говоря, неизвестны, и вместо них в выражении
(14.65) следует использовать остатки et , полученные в результате оценивания
модели. При наличии в модели скользящего среднего (т.е. при q > 0) ошибки не
выражаются однозначно через наблюдаемый ряд {xt } и требуется использовать
какое-то приближение. Наиболее простой метод состоит в том, чтобы положить
остатки et при t 0 равными нулю, а остальные остатки вычислять рекуррентно,
пользуясь формулой
p+d q
?t = xt ? fj xt?j + ?j ?t?j ,
j=1 j=1

где вместо ошибок ?t используются остатки et , а вместо неизвестных истинных
параметров fj и ?j — их оценки.
Из-за того, что параметры не известны, а оцениваются, дисперсия ошибки про-
гноза будет выше, чем следует из (14.8). Имея некоторую оценку ковариационной
матрицы оценок параметров, можно было бы внести приблизительную поправку,
но эти расчеты являются достаточно громоздкими.
Далее, расчеты дисперсии прогноза с использованием (14.8) сами по себе явля-
ются приближенными, поскольку встречающиеся там величины приходится оцени-
2
вать. Это относится и к функции реакции на импульсы ?i , и к дисперсии ошибки ?? .


Приложение.
Неоптимальность линейных прогнозов в модели ARMA

То, что ошибка ?t представляет собой белый шум (т.е. ошибки некоррелиро-
ваны, имеют нулевое математическое ожидание и одинаковую дисперсию), не под-
разумевает, что E (?t+k |?t ) = 0 при k > 0. Поэтому в общем случае прогнозная
функция, полученная по формуле (14.64) (или, эквивалентно, (14.65)) не будет
оптимальной в среднеквадратическом смысле. Однако она, как было показано,
является оптимальной среди линейных прогнозных функций. Кроме того, если
ошибки независимы, то требуемое свойство выполнено. В частности, оно верно
для гауссовского белого шума, т.к. для гауссовских процессов некоррелирован-
ность эквивалентна независимости.
Рассмотрим в качестве примера неоптимальности прогноза (14.64) следующий
процесс {?t }. Значения, соответствующие четным t независимы и распределены
как N (0; 1). При нечетных же t значения определяются по формуле
?2 ? 1
v
?t = t?1 .
2
485

<<

стр. 18
(всего 28)

СОДЕРЖАНИЕ

>>