<<

стр. 26
(всего 28)

СОДЕРЖАНИЕ

>>

разностями в правой части и с сезонными фиктивными переменными. Сде-
лайте это при разных возможных предположениях о том, как входят в модель
константа и тренд:

а) константа входит в коинтеграционное пространство, но не входит в мо-
дель исправления ошибок в виде дрейфа;
б) константа входит в коинтеграционное пространство, а также в модель
исправления ошибок в виде дрейфа, так что данные содержат тренд;
в) тренд входит в коинтеграционное пространство, но данные не содержат
квадратичный тренд.

4.2. С помощью тестов отношения правдоподобия определить, как должны вхо-
дить в модель константа и тренд. Убедитесь в том, что случай 4.1а, который
рассматривался в статье Мускателли и Хурна, отвергается тестами.

4.3. На основе найденного коинтегрирующего вектора оцените остальные коэф-
фициенты VECM. Рассмотрите полученные коэффициенты модели и сде-
лайте вывод о том, насколько они соответствуют экономической теории.
(Подсказка: интерпретируйте коинтегрирующую комбинацию как уравнение
спроса на деньги и обратите внимания на знак при ln Y ).
684 Глава 23. Векторные авторегрессии

Таблица 23.5. (Источник: Muscatelli, V.A., Hurn, S. Cointegration and Dynamic Time Series
Models. Journal of Economic Surveys 6 (1992, No. 1), 1–43.)
Квартал lnM R lnY lnP Квартал lnM R lnY lnP
1963–1 8.8881 0.0351 10.678 –1.635 1974–1 9.5017 0.1199 11.068 –0.95787
1963–2 8.9156 0.0369 10.746 –1.6189 1974–2 9.5325 0.1136 11.103 –0.89963
1963–3 8.9305 0.0372 10.752 –1.6205 1974–3 9.5584 0.1118 11.125 –0.85112
1963–4 8.9846 0.0372 10.789 –1.6028 1974–4 9.6458 0.1096 11.139 –0.8025
1964–1 8.9584 0.0398 10.756 –1.6045 1975–1 9.6438 0.1001 11.066 –0.73806
1964–2 8.9693 0.0436 10.8 –1.5843 1975–2 9.6742 0.0938 11.074 –0.6802
1964–3 8.9911 0.0462 10.802 –1.5813 1975–3 9.7275 0.1017 11.088 –0.63297
1964–4 9.0142 0.0547 10.838 –1.5677 1975–4 9.7689 0.1112 11.124 –0.59904
1965–1 8.9872 0.0651 10.779 –1.5557 1976–1 9.787 0.0904 11.092 –0.56265
1965–2 9.0005 0.0612 10.818 –1.5438 1976–2 9.8141 0.1019 11.105 –0.52675
1965–3 9.0116 0.0556 10.832 –1.5408 1976–3 9.8641 0.1126 11.134 –0.49414
1965–4 9.0506 0.0545 10.851 –1.5272 1976–4 9.8765 0.1399 11.172 –0.45642
1966–1 9.0394 0.0556 10.814 –1.519 1977–1 9.8815 0.112 11.112 –0.41982
1966–2 9.0336 0.0565 10.838 –1.5037 1977–2 9.9238 0.0772 11.122 –0.38322
1966–3 9.0438 0.0658 10.849 –1.4964 1977–3 10.001 0.0655 11.14 –0.36159
1966–4 9.0491 0.0662 10.86 –1.4845 1977–4 10.071 0.0544 11.177 –0.35041
1967–1 9.0388 0.06 10.841 –1.4842 1978–1 10.097 0.0597 11.143 –0.32276
1967–2 9.055 0.053 10.874 –1.4769 1978–2 10.117 0.0949 11.165 –0.29942
1967–3 9.0975 0.0544 10.881 –1.4726 1978–3 10.168 0.0938 11.182 –0.27619
1967–4 9.1326 0.0657 10.9 –1.4661 1978–4 10.223 0.1191 11.203 –0.25279
1968–1 9.1029 0.074 10.89 –1.4459 1979–1 10.222 0.1178 11.159 –0.22607
1968–2 9.1204 0.0714 10.901 –1.4285 1979–2 10.236 0.1379 11.215 –0.1898
1968–3 9.1351 0.0695 10.929 –1.4141 1979–3 10.274 0.1382 11.221 –0.13856
1968–4 9.1733 0.0666 10.961 –1.4044 1979–4 10.304 0.1649 11.242 –0.10048
1969–1 9.1182 0.0718 10.891 –1.3898 1980–1 10.274 0.1697 11.199 –0.05655
1969–2 9.0992 0.0783 10.932 –1.3825 1980–2 10.293 0.1632 11.171 –0.01134
1969–3 9.1157 0.0782 10.943 –1.3697 1980–3 10.294 0.1486 11.187 0.02109
1969–4 9.1744 0.0771 10.979 –1.3573 1980–4 10.343 0.1358 11.188 0.04439
1970–1 9.1371 0.0754 10.905 –1.3368 1981–1 10.356 0.1187 11.144 0.06282
1970–2 9.178 0.0689 10.962 –1.3168 1981–2 10.39 0.1224 11.144 0.09367
1970–3 9.1981 0.0683 10.971 –1.2939 1981–3 10.407 0.1572 11.191 0.11541
1970–4 9.2643 0.0682 11.017 –1.2791 1981–4 10.506 0.1539 11.206 0.13245
1971–1 9.2693 0.0674 10.938 –1.2585 1982–1 10.501 0.1292 11.175 0.14663
1971–2 9.2836 0.0567 10.99 –1.2345 1982–2 10.526 0.1266 11.172 0.1703
1971–3 9.3221 0.0539 11.01 –1.2132 1982–3 10.551 0.1012 11.193 0.1829
1971–4 9.3679 0.0452 11.044 –1.1992 1982–4 10.613 0.0996 11.22 0.19315
1972–1 9.3742 0.0436 10.98 –1.1853 1983–1 10.639 0.1049 11.209 0.21273
1972–2 9.4185 0.0459 11.025 –1.1707 1983–2 10.664 0.0951 11.195 0.2242
1972–3 9.4356 0.0597 11.02 –1.1439 1983–3 10.675 0.0917 11.244 0.23412
1972–4 9.4951 0.0715 11.1 –1.1282 1983–4 10.719 0.0904 11.268 0.24285
1973–1 9.4681 0.0813 11.093 –1.1044 1984–1 10.754 0.0856 11.241 0.25738
1973–2 9.5347 0.0754 11.102 –1.0913 1984–2 10.798 0.0906 11.233 0.27467
1973–3 9.5119 0.1025 11.117 –1.0493 1984–3 10.827 0.1024 11.268 0.28672
1973–4 9.5445 0.1162 11.141 –1.0048 1984–4 10.862 0.0933 11.317 0.29773
685
23.9. Упражнения и задачи

Задачи

1. Рассмотрите приведенную форму процесса VAR(1):
? ?
? 0.2 0.4 ?
(xt , yt ) = (xt?1 , yt?1 ) ? ? + (vxt , vyt ) ,
0.2 0

где ошибки vxt , vyt не автокоррелированы и их ковариационная матрица
равна
? ?
?0.5 ?
1
?
? ?.
?0.5 4.25

а) Является ли процесс стационарным?
б) Найдите структурную форму модели (матрицу коэффициентов и кова-
риационную матрицу), если известно, что она является рекурсивной
(yt входит в уравнение для xt , но xt не входит в уравнение для yt ).
в) Найдите (матричный) долгосрочный мультипликатор.

2. Векторная регрессия с двумя переменными xt , yt задается следующими урав-
нениями:

xt = ?xt?1 + ?yt?1 + vt ,
yt = ?xt?1 + ?yt?1 + wt .

Ковариационная матрица ошибок vt , wt имеет вид:
? ?
?1 ??
? , где |?| < 1.
?=?
?1

а) Запишите модель в матричном виде.
б) Представьте матрицу ? в виде ? = U ?U , где U — верхняя треуголь-
ная матрица, ? — диагональная матрица с положительными диаго-
нальными элементами.
в) Умножьте уравнение модели справа на матрицу U . Что можно сказать
о получившемся представлении модели?
г) Повторите задание, поменяв порядок переменных yt , xt . Сравните
и сделайте выводы.
686 Глава 23. Векторные авторегрессии

3. Предположим, что темпы прироста объемов производства, yt , и денежной
массы, mt , связаны следующими структурными уравнениями:

mt = ?mt?1 + ?mt ,
yt = ?mt + ?mt?1 + ?yt?1 + ?yt ,

где ошибки ?mt , ?yt не автокоррелированы, не коррелированы друг с другом,
2 2
а их дисперсии равны ?m и ?y , соответственно.

а) Запишите структурные уравнения в стандартном матричном виде модели
SVAR.
б) Запишите модель в приведенной форме.
в) Какой вид имеет функция реакции на импульсы для монетарных шо-
ков ?mt и шоков производительности ?yt ? Как эта функция связана
с представлением модели в виде бесконечного скользящего среднего
(разложением Вольда)?
г) Найдите (матричный) долгосрочный мультипликатор.

4. Рассмотрите двумерную векторную авторегрессию первого порядка:
? ?
? ?11 ?12 ?
(x1t , x2t ) = (x1, t?1 , x2, t?1 ) ? ? + (v1t , v2t ) ,
?21 ?22

где ошибки v1t , v2t являются белым шумом и независимы между собой.

а) При каких параметрах модель является рекурсивной? Объясните.
б) При каких параметрах x1t и x2t представляют собой два независимых
случайных блуждания? Объясните.
в) Известно, что x1t не является причиной x2t в смысле Грейнджера.
Какие ограничения этот факт накладывает на параметры?

5. Рассмотрите авторегрессию второго порядка: xt = ?1 xt?1 + ?2 xt?2 + ?t , где
ошибка ?t представляет собой белый шум.

а) Обозначьте xt?1 = yt и запишите данную модель в виде векторной
авторегрессии первого порядка для переменных xt и yt .
б) Чему равна ковариационная матрица одновременных ошибок в полу-
чившейся векторной авторегрессии?
в) Сопоставьте условия стационарности исходной модели AR(2) и полу-
ченной модели VAR(1).
687
23.9. Упражнения и задачи

6. Представьте векторную авторегрессию второго порядка в виде векторной
авторегрессии первого порядка (с расшифровкой обозначений).

7. Рассмотрите двумерную модель VAR(1):

? ?
?12 1?
(x1t , x2t ) = (x1, t?1 , x2, t?1 )? + vt , где ? = ? ?.
14
0


а) Найдите корни характеристического многочлена, соответствующего
этой модели. Является ли процесс стационарным?

б) Найдите собственные числа матрицы ?. Как они связаны с корнями
характеристического многочлена, найденными в пункте (a)?

8. Рассмотрите векторную авторегрессию первого порядка:

? ?
? ?11 ?12 ?
(x1t , x2t ) = (x1, t?1 , x2, t?1 ) ? ? + (v1t , v2t ) .
?21 ?22

При каких параметрах процесс является стационарным:

а) ?11 = 1, ?12 = 0.5, ?21 = 0, ?22 = 1;

б) ?11 = 0.3, ?12 = 0.1, ?21 = ?0.1, ?22 = 0.5;

в) ?11 = 2, ?12 = 0, ?21 = 1, ?22 = 0.5;

г) ?11 = 0.5, ?12 = ?1, ?21 = 1, ?22 = 0.5;

д) ?11 = 0.5, ?12 = ?1, ?21 = 1, ?22 = 0.5;

е) ?11 = 0.3, ?12 = ?0.2, ?21 = 0.2, ?22 = 0.3?

Аргументируйте свой ответ.

9. В стране чудес динамика темпа прироста ВВП, yt , темпа прироста денежной
массы M2, mt , и ставки процента, rt , описывается следующей моделью
688 Глава 23. Векторные авторегрессии

VAR(2):
? ?
? 0.7 0.9 ?
0
? ?
? ?
(yt , mt , rt ) = (2, 1, 0) + (yt?1 , mt?1 , rt?1 ) ? 0.1 0 ?+
0.4
? ?
? ?
0 0.1 0.8
? ?
? ?0.2 0?
0
? ?
? ?
+ (yt?2 , mt?2 , rt?2 ) ? 0 0 ? + (vyt , vmt , vrt ) ,
0.1
? ?
? ?
0 0.1 0

где ошибки vyt , vmt , vrt представляют собой белый шум.
а) Покажите, что все три переменные являются стационарными.
б) Найдите безусловные математические ожидания этих переменных.
в) Запишите модель в виде векторной модели исправления ошибок.
10. Опишите поэтапно возможную процедуру построения прогнозов для вектор-
ной авторегрессии. Необходимо ли для построения прогноза знать ограни-
чения, накладываемые структурной формой? (Объясните.) На каком этапе
построения прогноза можно было бы учесть структурные ограничения?
11. Объясните различие между структурной и приведенной формой векторной
авторегрессии. В чем причина того, что разложение дисперсии ошибки про-
гноза основывают на структурной форме, а не на приведенной форме?
12. Рассмотрите векторный процесс (xt , yt ):

xt = xt?1 + ?t ,

yt = ?xt + ?yt?1 + ?t (? = 0, |?| < 1).

а) Покажите, что xt и yt являются коинтегрированными CI(1, 0). Укажи-
те ранг коинтеграции и общий вид коинтегрирующих векторов.
б) Запишите процесс в виде векторной модели исправления ошибок. Ука-
жите соответствующую матрицу корректирующих коэффициентов и
матрицу коинтегрирующих векторов.
13. Пусть в векторной модели исправления ошибок константа входит в коин-
теграционное пространство. Какие ограничения это налагает на параметры
модели?
689
23.9. Упражнения и задачи

14. На примере векторной авторегрессии первого порядка с двумя переменными,
коинтегрированными как CI(1, 0), покажите, что наличие константы (дрей-
фа) в коинтеграционном пространстве означает, что переменные содержат
линейный тренд.

15. Пусть в векторной модели исправления ошибок
p?1
?xt = xt?1 ? + ?xt?j ?j + vt
j=1
? ?
?1 6 1?
? ?
? ?
матрица ? = ? 2 4 2 ?.
? ?
? ?
321
Найдите ранг коинтеграции, матрицу коинтегрирующих векторов ? и мат-
рицу корректирующих коэффициентов ?.

16. Объясните, почему процедура Йохансена позволяет не проверять перемен-
ные на наличие единичных корней.

17. Пусть в векторной модели исправления ошибок
p?1
?xt = xt?1 ? + ?xt?j ?j + vt
j=1

коинтегрирующие векторы равны (1; ?1; 0) и (1; 1; 1), а матрица коррек-
тирующих коэффициентов равна
? ?
?1 0?
? ?
? ?
?=? 0 2 ?.
? ?
? ?
0 ?1

Найдите матрицу ?.


Рекомендуемая литература
1. Amisano Gianni, Carlo Giannini. Topics in Structural VAR Econometrics,
2nd ed. — Springer, 1997.
690 Глава 23. Векторные авторегрессии

2. Banerjee A., J.J. Dolado, J.W. Galbraith and D.F. Hendry, Co-integration, Error
Correction and the Econometric Analysis of Non-stationary Data. — Oxford
University Press, 1993. (Ch. 5, 8.)

3. Canova F. «VAR Models: Specification, Estimation, Inference and Forecasting»
in H. Pesaran and M. Wickens (eds.) Handbook of Applied Econometrics. —
Basil Blackwell, 1994.

4. Granger C. W. J. Investigating Causal Relations by Econometric Models and
Cross-Spectral Methods. // Econometrica, 37 (1969), 424–438.

5. Greene W.H. Econometric Analysis. — Prentice-Hall, 2000. (Ch. 17, 18).

6. Hamilton, J. D. Time Series Analysis. — Princeton University Press, 1994. (Ch.
10, 11).

7. Johansen S. Estimation and Hypothesis Testing of Cointegration Vectors
in Gaussian Vector Autoregressive Models. // Econometrica, 59 (1991),
1551–1580.

8. Lutkepohl Helmut. Introduction to Multiple Time Series Analysis, second
edition. — Berlin: Springer, 1993. (Ch. 2, 10, 11).

9. Muscatelli V.A. and Hurn S. Cointegration and dynamic time series models. //
Journal of Economic Surveys, 6 (1992), 1–43.

10. Sims C. A. Macroeconomics and Reality. // Econometrica, 48 (1980), 1–48.

11. Stock J.H. and Watson M.W. Testing for Common Trends. // Journal of the
American Statistical Association, 83 (1988), 1097–1107.

12. Watson Mark W. Vector Autoregressions and Cointegration. // Handbook of
Econometrics, Vol. IV. Robert Engle and Daniel McFadden, eds. Elsevier, 1994,
2844–2915.

13. Mills Terence C. Time Series Techniques for Economists. — Cambridge Univer-
sity Press, 1990. (Ch. 14).

14. Mills Terence C. The Econometric Financial Modelling Time Series. — Cam-
bridge University Press, 1999. (Ch. 7, 8).
Приложение A

Вспомогательные сведения
из высшей математики

A.1. Матричная алгебра

A.1.1. Определения
? ?
? x1 ?
??
??
x = {xi }i=1, ..., n = ? . ? называется вектор-столбцом размерности n.
.
?.?
??
xn
x = (x1 , , . . . , xn ) называется вектор-строкой размерности n.

? ?
? a11 a1n ?
a12 ...
? ?
? ?
?a a2n ?
a22 ...
? 21 ?
A = {aij } i=1, ..., m = ? ?
?. .?
.
?. .?
.
j=1, ..., n
?. . .?
? ?
am1 am2 . . . amn


называется матрицей размерности m ? n.

691
692 Приложение A. Вспомогательные сведения из высшей математики

? Сумма матриц A и B (m ? n): C = A + B = {aij + bij }, C (m ? n).
n
? Произведение матриц A (m ? n) и B (n ? k): C = AB = ait btj ,
t=1
C (m ? k).

? Скалярное произведение вектор-столбцов a (m ? 1) и b (m ? 1):
m
ai bi .
ab=
i=1

? Квадратичная форма вектор-столбца x (m ? 1) и матрицы A (m ? m):
m m
aij xi xj .
x Ax =
i=1 j=1

? Произведение матрицы A (m ? n) на скаляр ?: B = ?A = {?aij },
B (m ? n).

? Транспонирование матрицы A (m ? n): B = A = {aji }, B (n ? m).
m
? След матрицы A (m ? m): tr (A) = aii .
i=1

? Рангом (rank(A)) матрицы A называется количество линейно независи-
мых столбцов (равное количеству линейно независимых строк). Матри-
ца A (m ? n) имеет полный ранг по столбцам, если rank(A) = n. Мат-
рица A (m ? n) имеет полный ранг по строкам, если rank(A) = m.

? Матрица A (m ? m) называется невырожденной (неособенной), если
rank(A) = m. В противном случае она называется вырожденной.

? Матрица A (m ? m) называется диагональной, если aij = 0 при
i = j. Для диагональной матрицы используется обозначение A =
= diag(a11 , . . . , amm ).
? ?
1 0 ··· 0 ?
?
? ?
? ?
? ?
0 1 ··· 0
? ?
? Матрица Im = diag(1, . . . , 1) = ? ? (m ? m) называется
? ?
. . .. .
? ?
.. ..
.. .
? ?
? ?
0 0 ··· 1
единичной.

? Матрица A (m ? m) называется симметричной (симметрической), если
A=A.
693
A.1. Матричная алгебра

? Матрица A (m ? m) называется верхней треугольной, если aij = 0
при i > j. Матрица A (m?m) называется нижней треугольной, если aij = 0
при i < j.

? Матрица A?1 (m?m) называется обратной матрицей к матрице A (m?m),
если AA?1 = A?1 A = Im .

? Матрица A (m ? m) называется идемпотентной, если AA = A2 = A.

? Векторы-столбцы a (m ? 1) и b (m ? 1) называются ортогональными, если
их скалярное произведение равно нулю: a b = 0.

? Матрица A (m?n), где m n, называется ортогональной, если ее столбцы
ортогональны, т.е. A A = In .

? Матрица A (m ? m) называется положительно определенной, если для
любого вектор-столбца x = 0 (m ? 1) выполняется x Ax > 0. Матрица A
(m ? m) называется отрицательно определенной, если для любого вектор-
столбца x = 0 (m ? 1) выполняется x Ax < 0.

? Матрица A (m ? m) называется положительно полуопределенной (неот-
рицательно определенной), если для любого вектора-столбца x (m ? 1)
выполняется x Ax 0. Матрица A (m ? m) называется отрицательно по-
луопределенной (неположительно определенной), если для любого вектора-
столбца x (m ? 1) выполняется x Ax 0.

? Определителем матрицы A (m ? m) называется

m
|A| = det(A) = aij (?1)i+j |Aij |,
j=1


где i — номер любой строки, а матрицы Aij ((m ? 1) ? (m ? 1)) получены
из матрицы A путем вычеркивания i-й строки и j-го столбца.

? Для матрицы A (m ? m) уравнение |A ? ?Im | = 0 называется характери-
стическим уравнением. Решение этого уравнения ? называется собственным
числом (собственным значением) матрицы A. Вектор x = 0 (m ? 1) назы-
вается собственным вектором матрицы A, соответствующим собственному
числу ?, если (A ? ?Im ) x = 0.
694 Приложение A. Вспомогательные сведения из высшей математики

? Прямое произведение (произведение Кронекера) матриц A (m ? n) и B
(p ? q) это матрица C (mp ? nq):
? ?
···
? a11 B a1n B ?
a12 B
? ?
? ?
?a B a2n B ?
···
a22 B
? 21 ?
C=A?B=? ?.
? ?
. . .
..
? ?
. . .
.
. . .
? ?
? ?
am1 B am2 B · · · amn B


A.1.2. Свойства матриц

Сложение матриц

• A + B = B + A (коммутативность).
• (A + B) + C = A + (B + C) (ассоциативность).

Произведение матриц

• В общем случае AB = BA (свойство коммутативности не выполнено).
• (AB) C = A (BC) (ассоциативность).
• A (B + C) = AB + AC (A + B) C = AC + BC (дистрибутивность).
• AIm = Im A = A для матрицы A (m ? m).
? ?? ? ? ?
?A B ?? E F? ? AE + BG AF + BH ?
•? ?? ?=? ?.
CD GH CE + DG CF + DH

Ранг

• Для матрицы A (m ? n) выполнено rank(A) min{m, n}.
• rank(AB) min {rank(A), rank(B)}.
• Если матрица B (m ? m) является невырожденной, то для матрицы A
(m ? n) выполнено rank(A) = rank(BA). Если матрица B (n ? n) яв-
ляется невырожденной, то для матрицы A (m ? n) выполнено rank(A) =
= rank(AB).
• rank(A A) = rank(AA ) = rank(A).
695
A.1. Матричная алгебра

Cлед

• tr (A + B) = tr (A) + tr (B).

• tr (?A) = ? · tr (A).

• tr (A) = tr (A ).

• tr (AB) = tr (BA).

• tr (ABC) = tr (CAB) = tr (BCA).
m n
a2 .
• tr (A A) = tr (AA ) = ij
i=1 j=1

• tr (Im ) = m.

• tr A(A A)?1 A = n, где матрица A (m ? n) имеет полный ранг по столб-
цам, т.е. rank(A) = n.
? ?
?A B?
• tr ? ? = tr (A) + tr (D), где A и D — квадратные матрицы.
CD


Транспонирование

• (A + B) = A + B .

• (AB) = B A .


Определитель

• Для матрицы A (2 ? 2): |A| = a11 a22 ? a12 a21 .

• |A| |B| = |AB|.

• |I| = 1.

• |?A| = ?m |A| для матрицы A (m ? m).

• |A | = |A|.
1
• A?1 = |A| .
696 Приложение A. Вспомогательные сведения из высшей математики

• Если матрица A (m ? m) является треугольной (например, диагональной),
m
то |A| = aii .
i=1

• |I + AB| = |I + BA|.

• A + BD?1 C |D| = D + CA?1 B |A|.

• |A + xy | = |A| (1 + y Ax) для матрицы A (m ? m) и вектор-столбцов x,
y (m ? 1).


A 0
• = |A| |B|, где A и B — квадратные матрицы.
0 B


AB
= A ? BD?1 C |D| = D ? CA?1 B |A|, где A и D — квад-

CD
ратные невырожденные матрицы.

• Матрица A (m?m) является невырожденной (rank(A) = m) тогда и только
тогда, когда |A| = 0.


Обращение

• Если обратная матрица существует, то она единственна (в частности, левая
и правая обратные матрицы совпадают).

• Матрица A (m ? m) имеет обратную A?1 тогда и только тогда, когда она
является невырожденной, т.е. rank(A) = m.

• Матрица A (m ? m) имеет обратную A?1 тогда и только тогда, когда |A| =
= 0.

• Обозначим через aij элементы обратной матрицы A?1 . Тогда
(?1)i+j |A |
, где Aji ((m ? 1) ? (m ? 1)) получены из матрицы A путем
aij = ji
|A|
вычеркивания j-й строки и i-го столбца.

Во всех приводимых ниже формулах предполагается, что существуют обратные
матрицы там, где это требуется.
697
A.1. Матричная алгебра

• Для матрицы A (2 ? 2):
? ? ? ?
1 ? a22 ?a21 ? ? a22 ?a21 ?
1
A?1 = ? ?= ? ?.
|A| a11 a22 ? a12 a21
?a12 a11 ?a12 a11

• Ax = y, x = A?1 y.

• (AB)?1 = B?1 A?1 .
?1
A?1
• = A.

• (A )?1 = A?1 .

• Если A (m ? m) — ортогональная матрица, то A = A?1 .

• Для диагональной матрицы A = diag(a11 , . . . , amm ) выполнено:

A?1 = diag(1/a11 , . . . , 1/amm ).

?1
• (A + B)?1 = A?1 A?1 + B?1 B?1 .
?1
A + BD?1 C = A?1 ? A?1 B(D + CA?1 B)?1 CA?1 .


• (I + AB)?1 = I ? A(I + BA)?1 B.
? ??1 ? ?
?1
?A 0? ?A 0 ?
•? ? =? ?, где A и B — квадратные матрицы.
B?1
0 B 0
? ??1 ? ?
(A ? BD?1 C)?1 ?A?1 B(D ? CA?1 B)?1 ?
?A B? ?
•? ? =? ?,
?D?1 C(A ? BD?1 C)?1 (D ? CA?1 B)?1
CD
где A и D — квадратные матрицы.


Положительно определенные матрицы

• Если матрица A положительно определенная, то |A| > 0. Если матрица A
положительно полуопределенная, то |A| 0.

• Если матрица A положительно (полу-)определенная, то матрица ?A от-
рицательно (полу-)определенная.
698 Приложение A. Вспомогательные сведения из высшей математики

• Если матрица A положительно определенная, то обратная матрица A?1
также положительно определенная.

• Если матрицы A и B положительно (полу-)определенные, то матрицы
A + B и AB также положительно (полу-)определенные.

• Если матрица A положительно определенная, а B положительно полу-
определенная, то |A + B| |A|. Если B положительно определенная,
то |A + B| > |A|.

• Матрицы A A и A BA (n ? n) являются симметричными положительно
полуопределенными для любой матрицы A (m ? n) и симметричной поло-
жительно полуопределенной матрицы B (m ? m).

• Если матрица A (m ? n) имеет полный ранг по столбцам, то матри-
ца A A (n ? n) симметричная положительно определенная. Если мат-
рица B (m ? m) симметричная положительно определенная, то матрица
A BA (n ? n) симметричная положительно определенная.

• Если матрица A (m ? m) положительно полуопределенная, то существует
верхняя треугольная матрица U (m ? m), такая что A = U U. Также суще-
ствует нижняя треугольная матрица L (m ? m), такая что A = L L. Такое
представление матрицы называется разложением Холецкого (триангуляри-
зацией).


Идемпотентные матрицы

• Если матрица A идемпотентная, то матрица I ? A тоже идемпотентная,
причем A(I ? A) = 0.

• Если матрица A симметричная и идемпотентная, то rank(A) = tr (A).

• Матрицы A (A A)?1 A и Im ? A (A A)?1 A являются симметричными
и идемпотентными для любой матрицы A (m ? n), имеющей полный ранг
по столбцам. При этом tr A (A A)?1 A = n и tr Im ? A (A A)?1 A =
= m ? n.


Собственные числа и векторы

• Для матрицы A (m ? m) |A ? ?Im | является многочленом m-й степени
(характеристическим многочленом) и имеет m корней, ?1 , . . . , ?m , в общем
случае комплексных, среди которых могут быть кратные. По определению,
?1 , . . . , ?m являются собственными числами матрицы A.
699
A.1. Матричная алгебра

• У матрицы A (m ? m) существует не больше m различных собственных
чисел.

• Если x — собственный вектор матрицы A, соответствующий собственному
числу ?, то для любого скаляра ? = 0, ?x — тоже собственный вектор,
соответствующий собственному числу ?.
m
• Если ?1 , . . . , ?m — собственные числа матрицы A, то tr(A) = ?i ,
i=1
m
|A| = ?i .
i=1

• Если матрица A идемпотентная, то все ее собственные числа равны 0 или 1.

• Все собственные числа вещественной симметричной матрицы вещественны.

• Если x и y — собственные векторы вещественной симметричной матрицы,
соответствующие двум различным собственным числам, то они ортогональ-
ны: x y = 0.

• Если матрица A (m ? m) является вещественной и симметричной, то
существуют матрицы H и ?, где H (m ? m) — ортогональная матри-
ца (H = H?1 ), столбцы которой — собственные векторы матрицы A,
а ? (m ? m) — диагональная матрица, состоящая из соответствующих соб-
ственных чисел матрицы A, такие что выполнено A = H?H .

• Если матрица A (m ? m) является вещественной, симметричной, невырож-
денной, то A?1 = H??1 H .

• Вещественная симметричная матрица является положительно полуопреде-
ленной (определенной) тогда и только тогда, когда все ее собственные числа
неотрицательны (положительны). Вещественная симметричная матрица яв-
ляется отрицательно полуопределенной (определенной) тогда и только тогда,
когда все ее собственные числа неположительны (отрицательны).

• Если матрица A (m ? m) является вещественной, симметричной и положи-
тельно полуопределенной, то A = B B = B2 , где B = H?1/2 H (m ? m) —
вещественная, симметричная и положительно полуопределенная матрица;
1/
?1/2 = diag{?g }.
2




• Пусть ?1 ··· ?m — собственные числа вещественной симметрич-
ной матрицы A (m ? m). Тогда собственый вектор x1 , соответствующий
700 Приложение A. Вспомогательные сведения из высшей математики

наименьшему собственому числу ?1 , является решением задачи
?
?
?
? x Ax > min!
x
?
?
? x x = 1.


• Пусть ?1 ··· ?m — собственные числа вещественной симметричной
матрицы A (m ? m). Тогда ?m = max xxAx и ?1 = min xxAx .
x x
x x


Произведение Кронекера

• A ? (B + C) = A ? B + A ? C и (A + B) ? C = A ? C + B ? C.

• A ? (B ? C) = (A ? B) ? C.

• ? ? A = ? · A = A ? ?.

• (A ? B) = A ? B .

• (A ? B) (C ? D) = (AC) ? (BD).

• (A ? B)?1 = A?1 ? B?1 .

• |A ? B| = |A|n |B|m для матриц A (m ? m) и B (n ? n).

• tr (A ? B) = tr (A) · tr (B).

• rank(A ? B) = rank(A) · rank(B).


A.2. Матричное дифференцирование
A.2.1. Определения

? Производной скалярной функции s(x) по вектор-столбцу x (n ? 1) или,
другими словами, градиентом является вектор-столбец (n ? 1)
? ?
?s
? ?
? ?
?x1
? ?
? ?
?s .
=? ?.
.
.
?x ? ?
? ?
? ?
? ?s ?
?xn
701
A.2. Матричное дифференцирование

? Производной скалярной функции s(x) по вектор-строке x (1 ? n) является
вектор-строка (1 ? n)
?s ?s ?s
= , ..., .
?x ?x1 ?xn

? Производной векторной функции y(x) (n ? 1) по вектору x (1 ? m) или,
другими словами, матрицей Якоби является матрица (n ? m)

?y ?yi
= .
i=1, ..., n
?x ?xj j=1, ..., m


• Производной векторной функции y(x) (1?n) по вектору x (m?1) является
матрица (m ? n)
?y ?yj
= .
i=1, ..., m
?x ?xi j=1, ..., n


? Производной скалярной функции s(A) по матрице A (m ? n) является
матрица (m ? n)

?s ?s
= .
i=1, ..., m
?A ?aij j=1, ..., n


? Производной матричной функции A(s) по скаляру s является матрица (m ?
? n)
?A ?aij
= .
i=1, ..., m
?s ?s j=1, ..., n


? Второй производной скалярной функции s(x) по вектору-столбцу x (n ? 1)
или, другими словами, матрицей Гессе является матрица (n ? n)

?2s ?2s
= .
i=1, ..., m
?x?x ?xi ?xj j=1, ..., n


A.2.2. Свойства
?x ?x
• =I и = I.
?x ?x
?Ax ?x A
• =A и = A.
?x ?x
702 Приложение A. Вспомогательные сведения из высшей математики

?x y ?y x
• = = y.
?x ?x
?x x
• = 2x.
?x
?x Ay ?x Ay
• = Ay и = x A.
?x ?y
?x Ax
• = (A + A )x.
?x
?x Ax
Для симметричной матрицы A: = 2Ax = 2A x.
?x
?x Ay
• = xy .
?A
?x A?1 y
= (A )?1 xy (A )?1 .

?A
? tr (A)
• = I.
?A
? tr (AB) ? tr (AB)
• =B и =A.
?A ?B
? tr (A A)
• = 2A.
?A
? tr (A BA)
• = (B + B ) A.
?A
? tr (A BA)
• = AA .
?B
? |A|
= |A| (A )?1 .

?A
? ln |A|
= (A )?1 .

?A
? ln |A BA|
= BA (A BA)?1 + B A (A B A)?1 .

?A
? (AB) ?B ?A
• =A + B.
?s ?s ?s
?A?1 ?A ?1
= ?A?1
• A.
?s ?s
A.3. Сведения из теории вероятностей и математической статистики703

ds (A) ?s dA ?s dA
• .
= tr = tr
dt ?A dt ?A dt
? tr (A) ?A
• .
= tr
?s ?s
? ln |A| ?A
= tr A?1
• .
?s ?s
dy (x) ?y dx
• .
=
ds ?x ds

A.3. Сведения из теории вероятностей
и математической статистики
A.3.1. Характеристики случайных величин

Определения

• Функцией распределения случайной величины x называется функция
Fx (z) = Pr(x z), сопоставляющая числу z вероятность того, что x не пре-
вышает z. Функция распределения полностью характеризует отдельную слу-
чайную величину.

• Если случайная величина x непрерывна, то она имеет плотность fx (·), ко-
торая связана с функцией распределения соотношениями fx (z) = Fx (z).

• Квантилью уровня F , где F ? [0; 1], (F -квантилью) непрерывной случайной
величины x называется число xF , такое что
xF
Fx (xF ) = fx (t)dt = F.
??

• Медианой x0,5 называется 0, 5-квантиль.

• Модой непрерывной случайной величины называется величина, при которой
?
плотность распределения достигает максимума, т.е. x = arg max fx (z).
z

• Если распределение непрерывной случайной величины x симметрично от-
носительно нуля, т.е. fx (z) = fx (?z) и Fx (?xF ) = 1 ? Fx (xF ), то двусто-
ронней F -квантилью называется число xF , такое что
xF
Fx (xF ) ? Fx (?xF ) = fx (t)dt = F.
?xF
704 Приложение A. Вспомогательные сведения из высшей математики

• Математическим ожиданием непрерывной случайной величины x называ-
+?
ется E(x) = ?? tfx (t)dt.

• Математическое ожидание является начальным моментом первого по-
рядка. Начальным (нецентральным) моментом q-го порядка называется
+?
E(xq ) = ?? tq fx (t)dt.

• По случайной величине x может быть построена соответствующая ей цен-
трированная величина x : x = x ? E(x), имеющая аналогичные законы
??
распределения и нулевое математическое ожидание.

• Центральным моментом q-го порядка случайной величины x называется на-
чальный момент q-го порядка для соответствующей центрированной вели-
чины x, т.е. E(?q ) = E [(x ? E(x))q ]. Для непрерывной случайной величины
? x
центральный момент q-го порядка равен
+?
(t ? E(x))q fx (t)dt.
µq =
??


• Дисперсией случайной величины называется центральный момент второго
порядка. Для непрерывной случайной величины дисперсия равна
+?
2
2 2
(t ? E(x))2 fx (t)dt.
= E(? ) = E (x ? E(x))
var(x) = ?x x =
??


• Среднеквадратическим отклонением называется квадратный корень из дис-
2
персии ?x = ?x . Нормированной (стандартизованной) случайной величи-
x ? E(x)
ной называется .
?x
• Коэффициентом асимметрии называется начальный момент третьего порядка
нормированной случайной величины, т.е.
3
x ? E(x) µ3
?3 = E = .
3
?x ?x

• Куртозисом называется начальный момент четвертого порядка нормирован-
ной случайной величины, т.е.
4
x ? E(x) µ4
?4 = E = .
4
?x ?x

Коэффициентом эксцесса называется ?4 ? 3.
705
A.3 Сведения из теории вероятностей и матем. статистики

• Для n-мерного случайного вектора x = (x1 , . . . , xn ) (многомерной слу-
чайной величины) функцией распределения называется

Fx1 , ..., xn (z1 , . . . , zn ) = Pr(x1 z1 , . . . , xn zn ).

• Если распределение случайного вектора x непрерывно, то он имеет
плотность fx (·) (называемую совместной плотностью случайных величин
x1 , . . . , xn ), которая связана с функцией распределения соотношениями
? n Fx1 , ..., xn (z)
.
fx1 , ..., xn (z) =
?x1 · · · ?xn
Случайные величины x1 , . . . , xn называются независимыми (в совокупно-
сти), если Fx1 , ..., xn (z1 , . . . , zn ) = Fx1 (z1 ) · · · Fxn (zn ).

• Ковариацией случайных величин x и y называется

cov(x, y) = E [(x ? E(x)) (y ? E(y))] .

cov(x, y)
• Корреляцией случайных величин x и y называется ?x,y = .
var(x)var(x)

• Ковариационной матрицей n-мерной случайной величины x = (x1 , . . . , xn )
называется
? ?
· · · cov(x1 , xn )
? cov(x1 , x1 ) ?
? ?
? ?
. .
..
?x = var(x) = ? ?=
. .
.
. .
? ?
? ?
cov(x1 , xn ) · · · cov(xn , xn )
= E (x ? E(x)) (x ? E(x)) .


• Корреляционной матрицей n-мерной случайной величины x = (x1 , . . . , xn )
называется
? ?
· · · ?x1 ,xn ?
? 1 ?x1 ,x2
? ?
? ?
?? ?
· · · ?x2 ,xn
1
? x ,x ?
Px = ? 1 2 ?.
? ?
. . .
..
? ?
. . .
.
. . .
? ?
? ?
?x1 ,xn ?x2 ,xn · · · 1
706 Приложение A. Вспомогательные сведения из высшей математики

Функция распределения и плотность

• Функция распределения имеет следующие свойства: это неубывающая,
непрерывная справа функция, 0 1, причем lim Fx (z) = 0
Fx (z)
z>??
и lim Fx (z) = 1.
z>?

z
• Fx (z) = ?? fx (t)dt.

• fx (z) 0.
+?
• ?? fx (t)dt = 1.

b
• Вероятность того, что x ? [a, b] , равна Pr(a x b) = a fx (t)dt.

• Для многомерной случайной величины
z1 zn
···
Fx1 , ..., xn (z1 , . . . , zn ) = fx1 , ..., xn (t1 , . . . , tn )dtn . . . dt1 .
?? ??


• Если случайные величины x1 , . . . , xn независимы, то

fx1 , ..., xn (z1 , . . . , zn ) = fx1 (z1 ) · . . . · fxn (zn ).


Математическое ожидание

• Если c — константа, то E(c) = c.

• Если x и y — любые две случайные величины, то

E(x + y) = E(x) + E(y).

• Если c — константа, то E(cx) = cE(x).

• В общем случае E(xy) = E(x)E(y).

• Если функция f (·) вогнута, то выполнено неравенство Йенсена:

E (f (x)) f (E(x)) .

• Для симметричного распределения выполено E(x) = x0,5 .
707
A.3 Сведения из теории вероятностей и матем. статистики

Дисперсия

• var(x) = E(x2 ) ? E(x)2 .

• Для любой случайной величины x выполнено var(x) 0.

• Если c — константа, то выполнено: var(c) = 0; var(c + x) = var(x);
var(cx) = c2 var(x).

• Если x и y — любые две случайные величины, то в общем случае:

var(x + y) = var(x) + var(y).

var(x)
• Неравенство Чебышёва: Pr (|x ? E(x)| > ?) для любого поло-
?2
жительного числа ?.


Ковариация

• cov(x, y) = E (xy) ? E(x)E(y).

• cov(x, y) = cov(y, x).

• cov(cx, y) = c · cov(x, y).

• cov(x + y, z) = cov(x, z) + cov(y, z).

• cov(x, x) = var(x).

• Если x и y независимы, то cov(x, y) = 0. Обратное, вообще говоря, невер-
но.


Корреляция

x ? E(x) y ? E(y)
• ?x,y = cov(?, y ), где x = иy= — соответствую-
x? ? ?
?x ?y
щие центрированные нормированные случайные величины. Следовательно,
свойства корреляции аналогичны свойствам ковариации.

• ?x,x = 1.

• ?1 ?x,y 1.

• Если ?x,y = 0, то E (xy) = E(x)E(y).
708 Приложение A. Вспомогательные сведения из высшей математики

Условные распределения

• Условной вероятностью события A относительно события B называется
Pr(A|B) = Pr(A ? B)/ Pr(B).
Из определения следует, что Pr(A ? B) = Pr(A|B) Pr(B) = Pr(B|A) Pr(A).

• Для независимых событий A и B выполнено Pr(A|B) = Pr(A).

• Теорема Байеса: Пусть A1 , . . . , An , B — события, такие что
(1) Ai ? Aj = ? при i = j,
n
(2) B ? Ai ,
i=1
(3) Pr(B) > 0.
Тогда

Pr(B|Ai ) Pr(Ai ) Pr(B|Ai ) Pr(Ai )
Pr(Ai |B) = = .
n
Pr(B) Pr(B|Aj ) Pr(Aj )
j=1


• Пусть (x, y) — случайный вектор, имеющий непрерывное распределение,
где вектор x имеет размерность m ? 1, а y — n ? 1. Плотностью мар-
гинального распределения x называется fx (x) = fx,y (x, y)dy. Плотно-
Rn
стью условного распределения x относительно y называется

fx,y (x, y) fx,y (x, y)
fx|y (x|y) = = .
fy (y) fx,y (x, y)dx
Rm


• Если x и y независимы, то плотность условного распределения совпадает
с плотностью маргинального, т.е. fx|y (x|y) = fx (x).

• Условным математическим ожиданием x относительно y называется

E (x|y) = xfx|y (x|y)dx.
Rm


• Условная дисперсия x относительно y равна

var (x|y) = E (x ? E (x|y))2 |y .
709
A.3 Сведения из теории вероятностей и матем. статистики

Свойства условного ожидания и дисперсии

• E (?(y)|y) = ?(y).

• E (?(y)x|y) = ?(y)E (x|y).

• E (x1 + x2 |y) = E (x1 |y) + E (x2 |y).

• Правило повторного ожидания: E (E (x|y, z) |y) = E (x|y).

• Если x и y независимы , то E (x|y) = E (x).

• var (?(y)|y) = 0.

• var (?(y) + x|y) = var (x|y).

• var (?(y)x|y) = ?2 (y)var (x|y).


A.3.2. Распределения, связанные с нормальным

Нормальное распределение

Нормальное (или гауссовское) распределение с математическим ожиданием µ
и дисперсией ? 2 обозначается N µ, ? 2 и имеет плотность распределения

(z?µ)2
1 ?
(f (z) = v 2? 2
e .
2
2??

Нормальное распределение симметрично относительно µ, и для него выполня-
?
ется E(x) = x0,5 = x = µ.
Моменты нормального распределения: µ2k+1 = 0 и µ2k = (2k ? 1)!! · ? 2k =
= 1 · 3 · . . . · ? 2k при целых k, в частности, µ4 = 3? 4 .
Коэффициент асимметрии: ?3 = 0.
Куртозис ?4 = 3, коэффициент эксцесса равен нулю.
Стандартным нормальным распределением называется N (0, 1). Его плотность
z
1 ? z2 1 ? t2
?(z) = v e 2 ; функция распределения ?(z) = v e 2 dt.
2? 2?
??
710 Приложение A. Вспомогательные сведения из высшей математики

Распределение хи-квадрат

Распределение хи-квадрат с k степенями свободы обозначается ?2 . Его плот-
k
ность:
? k/2?1
?
? f (x) = (x/2) e?x/2 , x
? 0,
k/2 ?(k/2)
2
?
?
?
f (x) = 0, x < 0,

где ?(·) — гамма-функция.
k
x2 ? ?2 .
Если xi ? N (0, 1), i = 1, . . . , k и независимы в совокупности, то i k
i=1
?2 ,
Если x ? то E(x) = k и var(x) = 2k.
k
v
22
Коэффициент асимметрии: ?3 = v > 0.
k
12 12
+ 3, коэффициент эксцесса ?4 ? 3 =
Куртозис: ?4 = > 0.
k k
При больших k распределение хи-квадрат похоже на N (k, 2k).


Распределение Стьюдента

Распределение Стьюдента с k степенями свободы обозначается через tk . Его
также называют t-распределением. Его плотность:

? k+1
x2 2
? ((k + 1)/2)
f (x) = v 1+ .

<<

стр. 26
(всего 28)

СОДЕРЖАНИЕ

>>