<<

стр. 8
(всего 28)

СОДЕРЖАНИЕ

>>


По сравнению с R в матрице W RW лишь поменяли знаки некоторые недиаго-
нальные элементы, и поэтому все ее элементы, как и в матрице R, не превышают
единицы:

W RW 1n 1n .

Умножение обеих частей этого матричного неравенства справа на вектор-столбец
|?g| и слева на вектор строку |g ?| сохранит знак « », т.к. эти векторы, по опре-
делению, неотрицательны. Следовательно:
2
(5.18)
2
|g ?| W RW |?g| = ?y |g ?| 1n 1n |?g| = |?j gj | .

Что и требовалось доказать.


5.3. Упражнения и задачи
Упражнение 1

Дана модель xi = ? + ?i = 12 + ?i , i = 1, . . . , N . Используя нормальное
распределение, в котором каждое значение ошибки ?i независимо, имеет среднее
0 и дисперсию 2, получите 100 выборок вектора ? размерности (N ? 1), k =
= 1, . . . , 100 , где N = 10 (в каждой выборке по 10 наблюдений). Прибавив к
каждому элементу этой выборки число 12 получите 100 выборок вектора x.
195
5.3. Упражнения и задачи

1.1. Используйте 20 из 100 выборок, чтобы получить выборочную оценку bk
10
1
для ? (bk = xik , k = 1, . . . , 20).
10
i=1

1.2. Вычислите среднее и дисперсию для 20 выборок оценок параметра ?
20 20
(bk ? b)2 . Сравните эти средние значения с ис-
1 1
bk , s2 =
b= 20 20?1
k=1 k=1
тинными параметрами.
1.3. Для каждой из 20 выборк оцените дисперсию, используя формулу
N
1
2
(xi ? b)2 .
s=
?
N ?1 i=1

1 20 2
Пусть s2 — это оценка ? 2 в выборке k. Рассчитайте s и сравните
?k ?
20 k=1 k
с истинным значением.
1.4. Объедините 20 выборок по 10 наблюдений каждая в 10 выборок по 20 на-
блюдений и повторите упражнение 1.1–1.3. Сделайте выводы о результатах
увеличения объема выборки.
1.5. Повторите упражнение 1.1–1.3 для всех 100 и для 50 выборок и проанали-
зируйте разницу в результатах.
1.6. Постройте распределения частот для оценок, полученных в упражнении 1.5,
сравните и прокомментируйте результаты.
1.7. Постройте 95 % доверительный интервал для параметра ? в каждой выбор-
ке, сначала предполагая, что ? 2 известно, а потом при условии, что истинное
значение ? 2 неизвестно. Сравните результаты.

Задачи

1. При каких условиях средний за ряд лет темп инфляции будет несмещенной
оценкой истинного значения темпа инфляции?
2. В каком случае средняя за ряд лет склонность населения к сбережению будет
несмещенной оценкой истинного значения склонности к сбережению?
3. Пусть x1 , x2 , . . . , xN — независимые случайные величины, распределен-
ные нормально с математическим ожиданием ? и дисперсией ? 2 .
N
ixi
Пусть b? = i=1
— это оценка ?,
N
i
i=1
196 Глава 5. Случайные ошибки

– покажите, что b? — относится к классу несмещенных линейных оценок;
– рассчитайте дисперсию b? ;
– проверьте b? на состоятельность;
N
1
– сравните b? с простой средней b = xi ;
N
i=1

4. Случайная величина измерена три раза в неизменных условиях. Получены
значения: 99, 100, 101. Дать оценку истинного значения этой величины
и стандартную ошибку данной оценки.

5. Измерения веса студента Иванова на четырех весах дали следующие резуль-
таты: 80.5 кг, 80 кг, 78.5 кг, 81 кг. Дайте оценку веса с указанием ошибки
измерения.
6. Пусть ? — величина ВВП в России в 1998 г. Несколько различных экспер-
тов рассчитали оценки ВВП xi . Какие условия для ошибок этих оценок xi ??
должны выполнятся, чтобы среднее xi было несмещенной и эффективной
оценкой ??

7. Проведено пять измерений некоторой величины. Результаты этих измерений
следующие: 5.83, 5.87, 5.86, 5.82, 5.87 . Как бы вы оценили истинное значе-
ние этой величины при доверительной вероятности 0.95 ? А при вероятности
0.99 ?
8. Предположим, что исследователь, упоминавшийся в задаче 7, полагает, что
истинное стандартное отклонение измеряемой величины равно 0.02. Сколько
независимых измерений он должен сделать, чтобы получить оценку значения
величины, отличающуюся от истинного значения не более чем на 0.01:

а) при 95%-ном доверительном уровне?
б) при 99%-ном доверительном уровне?

9. Случайная величина измерена три раза в неизменных условиях. Получена
оценка истинного значения этой величины 5.0 и стандартная ошибка этой
1
оценки v . Каким мог быть исходный ряд?
3
10. Пусть имеется 25 наблюдений за величиной x, и по этим данным построен
95%-ный доверительный интервал для x: [1.968; 4.032]. Найдите по этим
данным среднее значение и дисперсию ряда.
11. Пусть xi — продолжительность жизни i-го человека ( i = 1, . . . , N ), x —
средняя продолжительность жизни, элементы выборки случайны и незави-
симы. Ошибка измерения исходного показателя для всех i составляет 5%,
197
5.3. Упражнения и задачи

2
какова ошибка x ? Вывести формулу ?x , рассчитать коэффициент вариации
?
для x, если x1 = 50, x2 = 60, x3 = 70.

12. Пусть объем экспорта равен 8 условных единиц, а импорта — 7 условных
единиц. Показатели некоррелированы, их дисперсии одинаковы и равны 1
условной единице. На каком уровне доверия можно утверждать, что сальдо
экспорта-импорта положительно?

13. Средние рентабельности двух разных фирм равны соответственно 0.4 и 0.2,
стандартные отклонения одинаковы и составляют 0.2. Действительно ли пер-
вая фирма рентабельнее и почему?

14. Наблюдаемое значение некоторой величины в предыдущий и данный мо-
мент времени одинаково и равно 10. Ошибки наблюдений не коррелированы
и имеют одинаковую дисперсию. Какова относительная ошибка темпа роста?

15. Пусть величина ВНП в I и II квартале составляла соответственно 550 и 560
млрд. долларов. Ошибки при расчетах ВНП в I и II квартале не коррели-
рованы и составляют 1%. Какова относительная ошибка темпа прироста
ВНП во II квартале? К каким последствиям в расчетах темпов роста и темпов
прироста приведут ошибки измерения ВНП, равные 5%?

16. Стандартная ошибка измерения показателя труда и показателя капитала
составляет 1%, ошибки измерений не коррелированы. Найти относитель-
ную ошибку объема продукции, рассчитанного по производственной функции
Кобба—Дугласа: Y = CK ? L? .

17. Доля бюджетного дефицита в ВВП вычисляется по формуле (R ? E)/Y , где
R = 600 условных единиц — доходы бюджета, E = 500 условных единиц —
расходы, Y = 1000 условных единиц — ВВП. Известно, что дисперсии R
и E равна 100, дисперсия Y равна 25. Оценить сверху дисперсию доли
дефицита.


Рекомендуемая литература
1. Венецкий И.Г., Венецкая В.И. Основные математико-статистические по-
нятия и формулы в экономическом анализе. — М.: «Статистика», 1979.
(Разд. 7).

2. Езекиэл М., Фокс К. Методы анализа корреляций и регрессий. — М.: «Ста-
тистика», 1966. (Гл. 2).
198 Глава 5. Случайные ошибки

3. Кейн Э. Экономическая статистика и эконометрия. — М.: «Статистика»,
1977. Вып. 1. (Гл. 8, 9).

4. Моргенштерн О. О точности экономико-статистических наблюдений. — М.:
«Статистика», 1968. (Гл. 2, 6).

5. Тинтер Г. Введение в эконометрию. — М.: «Статистика», 1965. (Гл. 1).

6. Frees Edward W. Data Analysis Using Regression Models: The Business Per-
spective, Prentice Hall, 1996. (Ch. 2).

7. (*) Judge G.G., Hill R.C., Griffiths W.E., Luthepohl H., Lee T. Introduction
to the Theory and Practice of Econometric. John Wiley & Sons, Inc., 1993.
(Ch. 3, 5).

8. William E.Griffiths, R. Carter Hill., George G. Judge Learning and Practicing
econometrics, N 9 John Wiley & Sons, Inc., 1993. (Ch. 14).
Глава 6

Алгебра линейной регрессии


6.1. Линейная регрессия
В этой главе предполагается, что между переменными xj , j = 1, . . . , n суще-
ствует линейная зависимость:
n
(6.1)
xj ?j = ? + ?,
j=1

где ?j , j = 1, . . . , n, ? (угловые коэффициенты и свободный член) — параметры
(коэффициенты) регрессии (их истинные значения), ? — случайная ошибка; или
в векторной форме:

(6.2)
x? = ? + ?,

где x и ? — соответственно вектор-строка переменных и вектор-столбец пара-
метров регрессии.
Как уже отмечалось в пункте 4.2, регрессия называется линейной, если ее
уравнение линейно относительно параметров регрессии, а не переменных. Поэтому
предполагается, что xj , j = 1, . . . , n, могут являться результатом каких-либо
функциональных преобразований исходных значений переменных.
Для получения оценок aj , j = 1, . . . , n, b , e, соответственно, параметров
регрессии ?j , j = 1, . . . , n, ? и случайных ошибок ? используется N наблюде-
ний за переменными x, i = 1, . . . , N , которые образуют матрицу наблюдений X
200 Глава 6. Алгебра линейной регрессии

размерности N ? n (столбцы — переменные, строки — наблюдения). Уравнение
регрессии по наблюдениям записывается следующим образом:

(6.3)
X? = 1N ? + ?,

где, как и прежде, 1N — вектор-столбец размерности N , состоящий из еди-
ниц, ? — вектор-столбец размерности N случайных ошибок по наблюдениям;
или в оценках:

(6.4)
Xa = 1N b + e.

Собственно уравнение регрессии (без случайных ошибок) x? = ? или xa = b
определяет, соответственно, истинную или расчетную гиперплоскость (линию,
плоскость, . . . ) регрессии.
Далее применяется метод наименьших квадратов: оценки параметров регрессии
находятся так, чтобы минимального значения достигла остаточная дисперсия:
1 1
s2 = a X ? b1N (Xa ? 1N b) .
ee=
e
N N
Из равенства нулю производной остаточной дисперсии по свободному члену b
следует, что

(6.5)
xa = b
?

и

(6.6)
1N e = 0.


Действительно,
?
? ? 2 (?a ? b) ,
x
?s2 2
= ? 1N (Xa ? 1N b) =
e
? ? 2 1 e.
?b N
NN

Вторая производная по b равна 2, т.е. в найденной точке достигается минимум.
Здесь и ниже используются следующие правила матричной записи результатов диф-
ференцирования линейных и квадратичных форм.
Пусть x, a — вектор-столбцы, ? — скаляр, а M — симметричная матрица. То-
гда:
dx? ?x a ?x M ?x M x
= x, = a, = M, = 2M x.
d? ?x ?x ?x
(См. Приложение A.2.2.)
201
6.2. Простая регрессия

Этот результат означает, что точка средних значений переменных лежит на
расчетной гиперплоскости регрессии.
В результате подстановки выражения b из (6.5) через a в (6.4) получается
другая форма записи уравнения регрессии:

? (6.7)
Xa = e,

где X = X ? 1N x — матрица центрированных значений наблюдений.
? ?
(6.3, 6.4) — исходная, (6.7) — сокращенная запись уравнения регрессии.
Минимизация остаточной дисперсии по a без дополнительных условий приве-
дет к тривиальному результату: a = 0. Чтобы получать нетривиальные решения,
на вектор параметров ? и их оценок a необходимо наложить некоторые огра-
ничения. В зависимости от формы этих ограничений возникает регрессия разного
вида — простая или ортогональная.


6.2. Простая регрессия
В случае, когда ограничения на вектор a (?) имеют вид aj = 1 ( ?j = 1),
возникают простые регрессии. В таких регрессиях в левой части уравнения оста-
ется одна переменная (в данном случае j-я), а остальные переменные переносятся
в правую часть, и уравнение в исходной форме приобретает вид (регрессия j-й
переменной по остальным, j-я регрессия):

(6.8)
Xj = X?j a?j + 1N bj + ej ,

где Xj — вектор-столбец наблюдений за j-й переменной — объясняемой,
X?j — матрица наблюдений размерности N ? (n ? 1) за остальными перемен-
ными — объясняющими (композиция Xj и X?j образует матрицу X), a?j —
вектор a без j-го элемента (равного 1), взятый с обратным знаком (компози-
ция 1 и ?a?j образует вектор a), bj и ej — соответственно свободный член
и вектор-столбец остатков в j-й регрессии. В сокращенной форме:

? ? (6.9)
Xj = X?j a?j + ej .

В таких регрессиях ошибки eij — расстояния от гиперплоскости регрессии
до точек облака наблюдения — измеряются параллельно оси xj .
Остаточная дисперсия приобретает следующую форму:

1 1?
s2 = Xj ? a?j X?j Xj ? X?j a?j .
? ? ? (6.10)
ej ej =
ej
N N
202 Глава 6. Алгебра линейной регрессии

Из равенства нулю ее производных по параметрам a?j определяется, что
?1
(6.11)
a?j = M?j m?j ,
1? ?
где M?j = N X?j X?j — матрица ковариации объясняющих переменных x?j
1? ?
между собой, m?j = N X?j Xj — вектор-столбец ковариации объясняющих пе-
ременных с объясняемой переменной xj ; и
1?
(6.12)
cov (X?j , ej ) = X ej = 0.
N ?j

Действительно,
?
?
??2(m?j ? M?j a?j ),
?s2 2?
ej
= ? X?j Xj ? X?j a?j
? ? =
?? 2 X e .
?a?j N ? ?
N ?j
j


Кроме того, очевидно, что матрица вторых производных равна 2M?j , и она, как
всякая ковариационная матрица, положительно полуопределена. Следовательно, в
найденной точке достигается минимум остаточной дисперсии.
Справедливость утверждения о том, что любая матрица ковариации (теоретическая
или ее оценка) положительно полуопределена, а если переменные линейно незави-
симы, то — положительно определена, можно доказать в общем случае.
Пусть x — случайный вектор-столбец с нулевым математическим ожиданием. Его
теоретическая матрица ковариации по определению равна E (xx ). Пусть ? = 0 —
детерминированный вектор-столбец. Квадратичная форма
2
? E(xx )? = E(? xx ?) = E (? x) 0,

т.е. матрица положительно полуопределена. Если не существует такого ? = 0, что
? x = 0, т.е. переменные вектора x линейно не зависят друг от друга, то неравенство
выполняется строго, и соответствующая матрица положительно определена.
Пусть X — матрица N наблюдений за переменными x. Оценкой матрицы ко-
1?? 1 ??
вариации этих переменных является X X . Квадратичная форма ? X X? =
N N
1 ?
0, где u = X?, т.е. матрица положительно полуопределена. Если не
= uu
N
?
существует такого ? = 0, что X? = 0, т.е. переменные x линейно не зависят друг
от друга, то неравенство выполняется строго, и соответствующая матрица положи-
тельно определена.

Оператор МНК-оценивания образуется соотношениями (6.11) и (6.5), которые
в данном случае записываются следующим образом:

bj = xj ? x?j a?j (6.13)
? ?
203
6.2. Простая регрессия

(соотношения МНК-оценивания (4.37), данные в пункте 4.2 без доказательства,
являются частным случаем этого оператора).
Уравнения

(6.14)
m?j = M?j a?j ,

решение которых дает первую часть оператора МНК-оценивания (6.11), называ-
ется системой нормальных уравнений.
МНК-оценки остатков имеют нулевую среднюю (6.6) и не коррелированы (ор-
тогональны) с объясняющими переменными уравнения (6.12).
Систему нормальных уравнений можно вывести, используя иную логику. Если
?
обе части уравнения регрессии (6.9) умножить слева на X?j и разделить на N ,
1?
то получится условие m?j = M?j a?j + X?j ej , из которого получается искомая
N
система при требованиях ej = 0 и cov(X?j , ej ) = 0, следующих из полученных
?
свойств МНК-оценок остатков.
Такая же логика используется в методе инструментальных переменных. Пусть
имеется матрица Z размерности N ? (n ? 1) наблюдений за некоторыми величи-
нами z, называемыми инструментальными переменными, относительно которых
известно, что они линейно не зависят от ?j и коррелированы с переменными X?j .
?
Умножение обеих частей уравнения регрессии слева на Z и деление их на N да-
1?? 1?? 1?
ет условие Z Xj = Z X?j a?j + Z ej , из которого — после отбрасывания
N N N
второго члена правой части в силу сделанных предположений — следует система
нормальных уравнений метода инструментальных переменных:

mz = M?j az ,
z
(6.15)
?j ?j

где mz = cov (z, xj ), M?j = cov (z, x?j ).
z
?j
Значения j-й (объясняемой) переменной, лежащие на гиперплоскости регрес-
сии, называются расчетными (по модели регрессии):
c
(6.16)
Xj = X?j a?j + 1N bj ,
?c ? (6.17)
Xj = X?j a?j .

Их дисперсия называется объясненной (дисперсия, объясненная регрессией)
и может быть представлена в различных вариантах:

1 ? c ? c (6.17) (6.11) ?1
s2 = Xj Xj = a?j M?j a?j = a?j m?j = m?j a?j = m?j M?j m?j .
qj
N
(6.18)
204 Глава 6. Алгебра линейной регрессии

Если раскрыть скобки в выражении остаточной дисперсии (6.10) и прове-
сти преобразования в соответствии с (6.11, 6.18), то получается s2 = s2 ? s2 ,
ej j qj
2 — дисперсия j-й (объясняемой) переменной, или
где sj

s2 = s2 + s2 . (6.19)
j qj ej

Это — дисперсионное тождество, показывающее разложение общей диспер-
сии объясняемой переменной на две части — объясненную (регрессией) и оста-
точную.
Доля объясненной дисперсии в общей называется коэффициентом детерми-
нации:
s2 s2
2 qj ej
= 2 =1? 2 , (6.20)
Rj
sj sj

который является показателем точности аппроксимации исходных значений объ-
ясняемой переменной гиперплоскостью регрессии (объясняющими переменными).
Он является квадратом коэффициента множественной корреляции между объ-
ясняемой и объясняющими переменными rj,?j , который, по определению, равен
коэффициенту парной корреляции между исходными и расчетными значениями
объясняемой переменной:

cov xj , xc ? ?c ??
1 Xj Xj (6.17) 1 Xj X?j a?j
j
rj,?j = = = =
sj sqj N sj sqj N sj sqj
m?j a?j (6.18) s2 (6.20) 2
qj
= = = Rj .
sj sqj sj sqj

Из (6.19) следует, что коэффициент корреляции по абсолютной величине не пре-
вышает единицы.
Эти утверждения, начиная с (6.16), обобщают положения, представленные
в конце пункта 4.2.
Композиция 1 и ?aj обозначается a(j) и является одной из оценок вектора
?. Всего таких оценок имеется n — по числу простых регрессий, в левой части
уравнения которых по очереди остаются переменные xj , j = 1, . . . , n. Эти вектор-
столбцы образуют матрицу A. По построению ее диагональные элементы равны
единице ( ajj = 1 вслед за aj (j) = 1).
Все эти оценки в общем случае различны, т.е. одну из другой нельзя получить
алгебраическим преобразованием соответствующих уравнений регрессии:
1
(6.21)
a (j) = aj , j=j.
aj (j )
205
6.3. Ортогональная регрессия

Это утверждение доказывалось в пункте 4.2 при n = 2. В данном случае спра-
ведливо утверждение, что соотношение (6.21) может (при некоторых j, j ) вы-
полняться как равенство в том и только том случае, если среди переменных xj ,
j = 1, . . . , n существуют линейно зависимые.

Достаточность этого утверждения очевидна. Действительно, пусть переменные неко-
торого подмножества J линейно зависимы, т.е. существует такой вектор ?, в кото-
ром ?j = 0 при j ? J и ?j = 0 при j ? J , и X? = 0. Тогда для любого j ? J
?
/
1
справедливо: a(j) = ?j ?, причем aj (j) = 0 при j ? J , и ej = 0, т.е. некоторые
/
соотношения (6.21) выполняются как равенства.
Для доказательства необходимости утверждения предполагается, что существует
такой ? = 0, что

(6.22)
A? = 0

(т.е., в частности, некоторые соотношения из (6.21) выполняются как равенства).
Сначала следует обратить внимание на то, что вслед за (6.14) все компоненты век-
1??
тора M a(j) ( M — матрица ковариации всех переменных x: M = N X X ), кроме
j-й, равны нулю, а j-я компонента этого вектора в силу (6.18, 6.19) равна s2 , т.е.
ej

2
(6.23)
M A = Se ,
2
s2 .
где Se — диагональная матрица ej
Теперь, после умножения обеих частей полученного матричного соотношения справа
2
на вектор ?, определенный в (6.22), получается соотношение: 0 = Se ?, которое
означает, что для всех j, таких, что ?j = 0, s2 = 0, т.е. переменные xj линейно
ej
зависят друг от друга.
Что и требовалось доказать.

Все возможные геометрические иллюстрации простых регрессий в простран-
стве наблюдений и переменных даны в пункте 4.2.


6.3. Ортогональная регрессия
В случае, когда ограничения на вектор a (или ?) состоят в требовании равен-
ства единице длины этого вектора

(6.24)
aa=1 (? ? = 1),

и все переменные остаются в левой части уравнения, получается ортогональная
регрессия, в которой расстояния от точек облака наблюдений до гиперплоскости
регрессии измеряются перпендикулярно этой гиперплоскости. Разъяснения этому
факту давались в пункте 4.2.
206 Глава 6. Алгебра линейной регрессии

Оценка параметров регрессии производится из условия минимизации остаточ-
ной дисперсии:

1 ??
(6.7)
s2 = a X Xa = a M a > min!,
e
N
1? ?
где M = X — ковариационная матрица переменных регрессии, при условии
NX
(6.24).
Из требования равенства нулю производной по a соответствующей функции
Лагранжа следует, что

(M ? ?In ) a = 0, (6.25)

где ? — множитель Лагранжа ограничения (6.24), причем

? = s2 . (6.26)
e



Действительно, функция Лагранжа имеет вид:

L (a, ?) = a M a ? ?a a,

а вектор ее производных по a:

?L
= 2 (M a ? ?a) .
?a

Откуда получается соотношение (6.25). А если обе части этого соотношения умно-
жить слева на a и учесть (6.24), то получается (6.26).

Таким образом, применение МНК сводится к поиску минимального собствен-
ного числа ? ковариационной матрицы M и соответствующего ему собствен-
ного (правого) вектора a (см. также Приложение A.1.2). Благодаря свойствам
данной матрицы (вещественность, симметричность и положительная полуопреде-
ленность), искомые величины существуют, они вещественны, а собственное чис-
ло неотрицательно (предполагается, что оно единственно). Пусть эти оценки по-
лучены.
В ортогональной регрессии все переменные x выступают объясняемыми, или
моделируемыми, их расчетные значения определяются по формуле:

X c = X ? ea .
? ? (6.27)
207
6.3. Ортогональная регрессия

Действительно: X c a = Xa ? e a a = 0, т.е. вектор-строки xc , соответствующие
? ? ?i
<>
? <>
1
e
наблюдениям, лежат на гиперплоскости регрессии и являются проекциями на нее
вектор-строк фактических наблюдений xi (вектор a по построению ортогонален
?
гиперплоскости регрессии, а ei a — вектор нормали xc на xi ), а аналогом коэф-
?i ?
n
?
фициента детерминации выступает величина 1 ? 2 , где s2 = s2 — суммарная
? j
s? j=1
дисперсия переменных x, равная следу матрицы M .

Таким образом, к n оценкам вектора a простой регрессии добавляется оценка
этого вектора ортогональной регрессии, и общее количество этих оценок стано-
вится равным n + 1.
Задачу простой и ортогональной регрессии можно записать в единой, обобщен-
ной форме:

(M ? ?W ) a = 0, ? > min!, (6.28)
a W a = 1,

где W — диагональная n?n-матрица, на диагонали которой могут стоять 0 или 1.
В случае, если в матрице W имеется единственный ненулевой элемент
wjj = 1, то это — задача простой регрессии xj по x?j (действительно, это следу-
ет из соотношения (6.23)); если W является единичной матрицей, то это — задача
ортогональной регрессии. Очевидно, что возможны и все промежуточные случаи,
когда некоторое количество n1 , 1 < n1 < n, переменных остается в левой части
уравнения, а остальные n2 переменных переносятся в правую часть уравнения
регрессии:

X 1 a1 = X 2 a2 + e1 , a1 a1 = 1.
? ?

Если J — множество переменных, оставленных в левой части уравнения, то
в записи (6.28) такой регрессии wjj = 1 для j ? J и wjj = 0 для остальных j.
Оценка параметров регрессии производится следующим образом:
?1 ?1
a2 = M22 M21 a1 , M11 ? M12 M22 M21 ? ?In1 a1 = 0

( a1 находится как правый собственный вектор, соответствующий минимальному
?1
собственному числу матрицы M11 ? M12 M22 M21 ), где
1 ?1
X 1,
?
M11 = X
N
1 ?1
X 2,
?
M12 = M21 = X
N
1
X2 X2
? ?
M22 =
N
208 Глава 6. Алгебра линейной регрессии

— соответствующие ковариационные матрицы.
Таким образом, общее количество оценок регрессии — (2n ? 1). В рамках
любой из этих оценок ? в (6.28) является остаточной дисперсией.
Задача ортогональной регрессии легко обобщается на случай нескольких урав-
нений и альтернативного представления расчетных значений изучаемых перемен-
ных.
Матрица M , как уже отмечалось, имеет n вещественных неотрицательных
собственных чисел, сумма которых равна s2 , и n соответствующих им веществен-
?
ных взаимноортогональных собственных векторов, дающих ортонормированный
базис в пространстве наблюдений (см. также Приложение A.1.2). Пусть собствен-
ные числа, упорядоченные по возрастанию, образуют диагональную матрицу ?,
а соответствующие им собственные вектора (столбцы) — матрицу A. Тогда

(6.29)
A A = In , M A = A?.

Собственные вектора, если их рассматривать по убыванию соответствующих
им собственных чисел, есть главные компоненты облака наблюдений, которые по-
казывают направления наибольшей «вытянутости» (наибольшей дисперсии) этого
облака. Количественную оценку степени этой «вытянутости» (дисперсии) дают
соответствующие им собственные числа.
Пусть первые k собственных чисел «малы».
s2 — сумма этих собственных чисел;
E
AE — часть матрицы A, соответствующая им (ее первые k стоблцов); это —
коэффициенты по k уравнениям регрессии или k младших главных компонент;
AQ — остальная часть матрицы A, это — n ? k старших главных компонент
или собственно главных компонент;
A = [AE , AQ ];
xAE = 0 — гиперплоскость ортогональной регрессии размерности n ? k;
?
[E, Q] = X AE , AQ — координаты облака наблюдений в базисе главных
компонент;
E — матрица размерности N ? k остатков по уравнениям регрессии;
Q — матрица размерности N ? (n ? k), столбцы которой есть значения так
называемых главных факторов.
Поскольку A = A?1 , можно записать X = E AE + Q AQ . Откуда
?
получается два возможных представления расчетных значений переменных:

? (1) ? (2)
X c = X ? E AE = Q AQ (6.30)
.
(6.27)
209
6.3. Ортогональная регрессия

Первое из них — по уравнениям ортогональной регрессии, второе (альтерна-
тивное) — по главным факторам (факторная модель).
2
1 ? sE s2 — аналог коэффициента детерминации, дающий оценку качества
?
обеих этих моделей.
Факторная модель представляет n
переменных через n ? k факто- x1
A
ров и, тем самым, «сжимает» ин- r
B
формацию, содержащуюся в исход-
E
ных переменных. В конкретном ис-
D
G
следовании, если k мало, то предпо-
F
чтительнее использовать ортогональ-
ные регрессии, если k велико (со- 0 C x2
ответственно n ? k мало), целе-
сообразно применить факторную мо-
1
дель. При этом надо иметь в ви-
ду следующее: главные факторы —
расчетные величины, и содержатель-
Рис. 6.1
ная интерпретация их является, как
правило, достаточно сложной зада-
чей.

Сделанные утверждения можно проиллюстрировать на примере n = 2, предполагая,
что ?1 ?2 , и упрощая обозначения (введенные выше матрицы являются в данном
случае векторами):
a1 = AE — вектор параметров ортогональной регрессии,
a2 = AQ — вектор первой (в данном случае — единственной) главной компоненты,
e = E — остатки в уравнении ортогональной регрессии,
q = Q — значения первого (в данном случае — единственного) главного фактора.
На рисунке: OA — вектор-строка i-го наблюдения xi = (?i1 , xi2 ), OD —
? x?
c
вектор-строка расчетных значений xi , длина OC — xi1 , длина OB — xi2 ,
? ? ?
OE — вектор-строка a1 , OG — вектор-строка a2 , длина OF — ei , длина
OD — qi .
Как видно из рисунка 6.1, квадрат длины вектора xi равен (из прямоугольных тре-
?
2 2 2 2
угольников OAC и OAD) xi1 + xi2 = ei + qi , и если сложить все эти уравнения по
? ?
i и разделить на N , то получится s2 + s2 = s2 + s2 . Понятно, что s2 = ?1 , s2 = ?2 ,
1 2 e q e q
и это равенство означает, что след матрицы ковариации равен сумме ее собственных
чисел. Кроме того, как видно из рисунка, s2 показывает дисперсию облака наблюде-
1
ний (суммарную дисперсию переменных регрессии) в направлении a1 наименьшей
«вытянутости» облака, s2 — дисперсию облака наблюдений в направлении a2 его
2
наибольшей «вытянутости».
210 Глава 6. Алгебра линейной регрессии

Вектор OF есть ei a1 , а вектор OD — qi a2 , и рисунок наглядно иллюстрирует
выполнение соотношения (6.30):
xc = xi ? ei a1 = qi a2 .
?i ?

Пусть теперь n = 3, и ?1 , ?2 , ?3 , a1 , a2 , a3 — собственные числа и вектора
ковариационной матрицы переменных.
1) Если ?1 ? ?2 ? ?3 , то облако наблюдений не «растянуто» ни в одном из направ-
лений. Зависимости между переменными отсутствуют.
?2 ? ?3 и k = 1, то облако наблюдений имеет форму «блина».
2) Если ?1
Плоскость, в которой лежит этот «блин», является плоскостью ортогональной ре-
грессии, которую описывает уравнение xa1 = 0, а собственно уравнением регрессии
?
?
является Xa1 = e.
Эту же плоскость представляют вектора a2 и a3 , являясь ее осями координат.
В этих осях координат можно выразить любую точку данной плоскости, в том числе
все точки расчетных значений переменных (6.30):
? ?
? a2 ?
?
Xc = ? ? = q1 a2 + q2 a3 ,
q1 q2
a3
? ?
где q1 = Xa2 , q2 = Xa3 — вектора значений главных факторов или вектора
координат расчетных значений переменных в осях a2 , a3 .
3) Если ?1 ? ?2 ?3 и k = 2, то облако наблюдений имеет форму «веретена».
Ось этого «веретена» является линией регрессии, образованной пересечением двух
плоскостей xa1 = 0 и xa2 = 0. И уравнений ортогональной регрессии в данном
? ?
? 1 = e1 и Xa2 = e2 .
?
случае два: Xa
Данную линию регрессии представляет вектор a3 , и через него можно выразить все
расчетные значения переменных:
?
X c = qa3 ,
?
где q = Xa3 — вектор значений главного фактора.


6.4. Многообразие оценок регрессии
Множество оценок регрессии не исчерпывается 2n ? 1 отмеченными выше
элементами. Перед тем как получать любую из этих оценок, можно провести пре-
образование в пространстве наблюдений или переменных.
Преобразование в пространстве наблюдений проводится с помощью матрицы
D размерности N ? N, N N . Обе части исходного уравнения (6.3) умножа-
ются слева на эту матрицу:
(6.31)
DX? = D1N ? + D?,
211
6.4. Многообразие оценок регрессии

после чего проводится оценка параметров любым из указанных 2n ? 1 способов.
Понятно, что полученные оценки будут новыми, если только D D = cIN , где c —
любая константа.
В результате такого преобразования ? может перестать являться свободным
членом, если только D1N = c1N ( c — любая константа). Но, главное, меняется
распределение ошибок по наблюдениям. Именно с целью изменить это распре-
деление в нужную сторону (с помощью подбора матрицы D) и проводятся такие
преобразования (см. гл. 8).
Преобразование в пространстве переменных осуществляется с помощью
квадратной невырожденной матрицы C размерности n ? n: Y = XC — пре-
образованные значения переменных регрессии. И затем оцениваются параметры
регрессии в новом пространстве: Y f = 1N g + u.
Это преобразование можно проводить в пространстве центрированных пере-
? ?
менных, т.к. Y = XC.
1 1
Действительно: XC = IN ? XC = IN ?
? ?
Y =Y.
N 1N 1N N 1N 1N

То есть исходное уравнение регрессии (6.7) после преобразования приобретает
вид:
? (6.32)
Y f = u.

Оценки f являются новыми, если после «возвращения» их в исходное про-
странство, которое производится умножением f слева на C, они не совпадут
с оценками a, полученными в исходном пространстве, т.е. если a = Cf . Справед-
ливость этого утверждения становится очевидной после следующего алгебраически
эквивалентного преобразования исходного уравнения (6.7):
XC C ?1 a = e.
? (6.33)
< >< ?
? ?>
? f
Y

Понятно, что МНК-оценка f совсем не обязательно совпадет с C ?1 a — и тогда
это будет новая оценка.
После преобразования меняется распределение ошибок в переменных регрес-
сии. И именно для того, чтобы изменить это распределение в нужную сторону,
осуществляются такие преобразования (см. гл. 8).
Результаты преобразований в пространстве переменных различны для простых
и ортогональной регрессий.
В случае простой регрессии xj по x?j это преобразование не приводит к по-
лучению новых оценок, если j-я строка матрицы C является ортом, т.е. в объ-
ясняющие переменные правой части не «попадает» — после преобразования —
объясняемая переменная.
212 Глава 6. Алгебра линейной регрессии
? ?
? ?
1 0
Действительно, пусть для определенности j = 1 и C = ? ? (первая
c?1 C?1
? ?
? ?
1 0
строка является ортом), C ?1 = ? ?.
?1 ?1
?C?1 c?1 C?1

Уравнение (6.33) записывается следующим образом:
? ?
? ?
1
? 1 + X?1 c?1 X?1 C?1 ? ? = e1
? ?
X
?1 ?1
? ? ? ? ? ? ? ? ? ? > ?C?1 c?1 ? C?1 a?1
<??????????
? <? ? ? ? ? ? ? ? ?>
????????
Y
f


или, после переноса переменных в правую часть:

?1 ?1
? ? ?
X1 + X?1 c?1 = X?1 C?1 C?1 c?1 + C?1 a?1 +e1 .
? ? ? ? ? > < ? ? <? ? ? f? ? ? ?>
??????
? ?>
<? ? ? ? ? ? ?1
? Y?1
Y1



Система нормальных уравнений для оценки f?1 имеет следующий вид:

1 1 ?1 ?1
? ? ? ? ?
C?1 X?1 X1 + X?1 c?1 = C?1 X?1 X?1 C?1 C?1 c?1 + C?1 a?1
N <? ? N < ? ? < ? ? <? ? ? ? ? ? ?>
? ?><? ? ? ? ? ? ?> ? ?> ??????
? ? ? ? ?>
? ? ? f?1
?
Y?1 Y?1 Y?1
Y1


или, раскрыв скобки:

C?1 m?1 + C?1 M?1 c?1 = C?1 M?1 c?1 + C?1 M?1 a?1 .


После взаимного сокращения одинаковых слагаемых в полученном матричном урав-
нении (2-го в левой части и 1-го в правой) и умножения обеих частей слева на C ?1
?1
получается система нормальных уравнений для оценки a?1 : m?1 = M?1 a?1 .
Это означает, что f?1 после «возвращения» в исходное пространство совпадает
с a?1 , т.е. проведенное преобразование в пространстве переменных новых оценок
регрессии не дает.


Верно и обратное утверждение: если j-я строка матрицы C не является ортом,
то a и f совпадают с точностью до обратного преобразования только тогда, когда
связь функциональна и e = 0.
213
6.4. Многообразие оценок регрессии
? ?
?1 c?1 ?
Пусть теперь C = ? ? (т.е. первая строка не является ортом),
0 In?1
? ?
?c?1 ?
?1
C ?1 = ? ? . Тогда уравнение (6.33) приобретает следующую форму:
0 In?1
? ?
? 1 + c?1 a?1 ?
? ? ?
X1 X?1 + X1 c?1
? ? = e1 , (6.34)
<? ? ? ?
? ? ? ?>
?a?1
?
Y?1
<?????
?????>
f

или
? ?
X1 1 + c?1 a?1 = Y?1 a?1 + e1 ,

и
a?1 1
? ?
X1 = Y?1 + e1 .
1 + c?1 a?1 1 + c?1 a?1

Таким образом, условием совпадения a и f с точностью до обратного преобразо-
вания является следующее:
a?1
(6.35)
f?1 = .
1 + c?1 a?1

Система нормальных уравнений для оценки f?1 имеет вид:
1? ? 1? ?
Y?1 X1 = Y?1 Y?1 f?1 ,
N N
или, учтя зависимость Y от X из (6.34) и раскрыв скобки:

m?1 + c?1 m11 = M?1 + m?1 c?1 + c?1 m?1 + m11 c?1 c?1 f?1 .

Это равенство с учетом (6.35) и (6.11) принимает вид:

?1
(m?1 + c?1 m11 ) 1 + c?1 M?1 m?1 =
?1
= M?1 + m?1 c?1 + c?1 m?1 + m11 c?1 c?1 M?1 m?1 .

Раскрыв скобки и приведя подобные, можно получить следующее выражение:
?1
c?1 m11 = c?1 m?1 M?1 m?1 ,
214 Глава 6. Алгебра линейной регрессии

которое выполняется как равенство, только если
?1
m11 = m?1 M?1 m?1 ,
т.е. если (в соответствии с (6.18))
m11 = s2 .
q1


Таким образом, a и f совпадают с точностью до обратного преобразования только
тогда, когда полная дисперсия равна объясненной, т. е. связь функциональна и e = 0.
Что и требовалось доказать.

Итак, преобразования в пространстве переменных в простых регрессиях лишь
в особых случаях приводят к получению новых оценок, обычно меняются толь-
ко шкалы измерения. Некоторые из этих шкал находят применение в прикладном
анализе. Такой пример дает стандартизированная шкала, которая возникает, ес-
ли C = S ?1 , где S — диагональная матрица среднеквадратических отклонений
переменных.
Оценки параметров регрессии после преобразования оказываются измерен-
ными в единицах среднеквадратических отклонений переменных от своих средних,
и они становятся сопоставимыми между собой и с параметрами других регрес-
сий.
В этом случае система нормальных уравнений формируется коэффициентами
?1
корреляции, а не ковариации, и f?j = R?j r?j , где R?j — матрица коэффици-
ентов корреляции объясняющих переменных между собой, r?j — вектор столбец
коэффициентов корреляции объясняющих переменных с объясняемой перемен-
ной.

Действительно (предполагается, что j = 1), соотношения (6.33) при указанной
матрице C имеют следующую форму:
? ?
?1
X1 s1
? ? ? ?
s1
X?1 S?1
? ? = e1 . (6.36)
1
<?
?> <? ?>
???
?S?1 a?1
? ?
Y1 Y?1

Для того чтобы вектор параметров приобрел необходимую для простой регрессии
форму, его надо разделить на s1 . Тогда и e делится на s1 (т.е. на s1 делятся обе
части уравнения (6.36)). После переноса объясняющих переменных в правую часть
получается следующее уравнение регрессии:
1 1
? ?
Y1 = Y?1 f?1 + e1 , где f?1 = S?1 a?1 .
s1 s1
Система нормальных уравнений для f?1 имеет следующий вид:
1? ? 1? ?
Y?1 Y1 = Y?1 Y?1 f?1 ,
N N
215
6.4. Многообразие оценок регрессии

или, учитывая зависимость Y от X из (6.36),

1
?1 ?1 ?1
S?1 m?1 = S?1 M?1 S?1 f?1 .
s1
? ? ? > < ?R?1? >
?????
<? ? ?
r?1


Что и требовалось доказать.


Преобразование в пространстве переменных в ортогональной регрессии при
использовании любой квадратной и невырожденной матрицы C = In приводит
к получению новых оценок параметров.
В пункте 4.2 при n = 2 этот факт графически иллюстрировался в случае, когда

? ?
?1 0?
C=? ?.
0k


В общем случае верно утверждение, состоящее в том, что в результате пре-
образования и «возвращения» в исходное пространство для получения оценок a
надо решить следующую задачу:

(M ? ??) a = 0, (6.37)
a ?a = 1,

где ? = C ?1 C ?1 .


Действительно:

После преобразования в пространстве переменных задача ортогональной регрессии
записывается следующим образом (6.24, 6.25):

(MY ? ?In ) f = 0, (6.38)
f f = 1,

f = C ?1 a.
где, учитывая (6.33), MY = C M C,

Выражение (6.37) получается в результате элементарных преобразований (6.38).


Понятно, что решение задачи (6.37) будет давать новую оценку параметрам a
при любой квадратной и невырожденной матрице C = In . Такую регрессию иногда
называют регрессией в метрике ??1 .
216 Глава 6. Алгебра линейной регрессии

6.5. Упражнения и задачи
Упражнение 1

По наблюдениям из таблицы 6.1:
Таблица 6.1
1.1. Вычислите
1? ? 1? ?
M?1 = X?1 X?1 , m?1 = X?1 X1
N N
X1 X?1
и для регрессии X1 = X?1 a?1 +1N b1 +e1 найдите
X2 X3
оценки a?1 и b1 .
0.58 1.00 1.00
c
1.2. Рассчитайте вектор X1 = X?1 a?1 + 1N b1 и век-
тор e1 = X1 ? X1 . Убедитесь, что 1N e1 = 0 и
1.10 2.00 4.00 c
1?
1.20 3.00 9.00 cov(X?1 , e) = X?1 e1 = 0.
N
1.30 4.00 16.00
1.3. Вычислите объясненную дисперсию различными
способами:
1.95 5.00 25.00

1 ? c ?c
2.55 6.00 36.00
s2 = X X;
N11
q1
2.60 7.00 49.00
s2 = a?1 m?1 ;
q1
2.90 8.00 64.00
s2 = m?1 M?1 m?1 .
?1
q1
3.45 9.00 81.00
1.4. Вычислите остаточную дисперсию различными
3.50 10.00 100.00
способами:
3.60 11.00 121.00
1
s2 = e e1 ;
N1
e1
4.10 12.00 144.00
1??
s2 = s2 ? s2 = X1 X1 ? s2 .
4.35 13.00 169.00
1
e1 q1 q1
N
4.40 14.00 196.00
1.5. Вычислите коэффициент детерминации различны-
4.50 15.00 225.00
ми способами:
s2
2 q1
R1 = 2;
s1
2
cov(x1 , xc )
2 1
R1 = .
s1 sq1

1.6. Оцените параметры и коэффициент детерминации для ортогональной ре-
грессии x? = ? + ?.
217
6.5. Упражнения и задачи

– сравните эти оценки с оценками линии регрессии, полученными в 1.1;
– рассчитайте расчетные значения переменных.

1.7. Оцените матрицу оценок и значений главных компонент ( AQ и Q), а также
расчетное значение переменных.

1.8. Пусть единицы измерения x1 увеличились в 100 раз. Как в этом случае долж-
на выглядеть матрица преобразования D? Как изменятся оценки уравнения
прямой и ортогональной регрессий?


Задачи

1. Может ли матрица
? ? ? ?
?3.8 ?2 ? ?3.8 ?2 ?
? 9.2 ? 5.2
? ? ? ?
? ? ? ?
а) ? ?3.8 0.6 ? б) ? ?3.8 0.6 ?
2 2
? ? ? ?
? ? ? ?
?2 ?2
0.5 2 0.6 2
являться ковариационной матрицей переменных, для которых строится урав-
нение регрессии? Ответ обосновать.
? ?
?1 1 ?
? ?
? ?
2. Для x = (x1 , x2 ) = ?2 2? найдите оценки ковариаций переменных x,
? ?
? ?
63
оценки параметров уравнения прямой (x1 = a12 x2 + 1N b1 + e1 ) и обратной
1
регрессии (x2 = a21 x1 + 1N b2 + e2 ). Покажите, что a12 = . Рассчитайте
a21
вектор-столбец остатков по прямой и обратной регрессии. Убедитесь, что
сумма остатков равна нулю, вектора остатков и x2 ортогональны при пря-
мой регрессии, вектора остатков и x1 ортогональны при обратной регрес-
сии. Найдите объясненную и остаточную дисперсии различными способами,
а также коэффициент детерминации.

3. Предположим, что мы, используя модель регрессии x1 = x?1 a?1 + 1N b1 +
+ e1 , из условия минимизации e1 e1 получили следующую систему линейных
?
?
? b + 2a + a = 3,
?1
? 12 13
?
?
уравнений:
? 2b1 + 5a12 + a13 = 9,
?
?
?
?
?
b1 + a12 + 6a13 = ?8.
218 Глава 6. Алгебра линейной регрессии

Запишите условия задачи в матрично-векторной форме, решите ее, используя
метод, указанный в приложении для обратных матриц, и найдите оценки
параметров регрессии.
4. Оцените регрессию x1 = a12 x2 + a13 x3 + 1N b1 + e1 и рассчитайте:
– оценку остаточной дисперсии,
– объясненную дисперсию,
– коэффициент детерминации,
если
a) матрица наблюдений имеет вид:
? ?
? ?
5 1 3
? ?
? ?
? ?
? ?
1 2 1
? ?
? ?
X = (X1 , X2 , X3 ) = ? ?,
?2 3 5
? ?
? ?
? ?
? ?
0 4 2
? ?
? ?
?4 5 4
б) X1 X1 = 96, X2 X2 = 55, X3 X3 = 129, X1 X2 = 72,
X1 X3 = 107, X2 X3 = 81, X1 1N = 20, X2 1N = 15, X3 1N = 25,
N = 5.
5. Дисперсии двух переменных совпадают, корреляция отсутствует. Изобра-
зить на графике — в пространстве переменных — линии прямой, обратной
и ортогональной регрессий. Ответ обосновать.
6. Дисперсии выпуска продукции и количества занятых по предприятиям равны,
соответственно, 10 и 20 , их ковариация равна 12 . Чему равен коэффициент
детерминации в регрессии выпуска по занятым, коэффициент зависимости
выпуска от занятых по прямой, обратной и ортогональной регрессии?
7. Дисперсии временных рядов индекса денежной массы и сводного индекса цен
равны, соответственно, 150 и 200, их ковариация равна 100. Чему равен
параметр влияния денежной массы на цены по модели прямой регрессии и
доля объясненной дисперсии в дисперсии индекса цен?
? ?
?14 3 5 3?
8. По заданной матрице ковариации двух переменных ? ? найти оста-
53 23
точную дисперсию уравнения регрессии первой переменной по второй.
219
6.5. Упражнения и задачи

9. В регрессии x1 = a12 x2 + 1N b1 + e1 , где x1 = (5, 3, 7, 1) коэффициент
детерминации оказался равным 50%. Найдите сумму квадратов остатков.
10. Оцените модель x1 = a12 x2 + 1N b1 + e1 , используя следующие данные:
? ?
?3 3?
? ?
? ?
?1 1?
? ?
? ?
? ?
(x1 , x2 ) = ?8 5? .
? ?
? ?
? ?
?3 2?
? ?
? ?
55
5 5
Вычислите остатки (ei ) и покажите, что ei = 0, x2i ei = 0.
i=1 i=1

11. Две парные регрессии построены на одних и тех же данных: x1 = a12 x2 +
2
+ 1N b1 + e1 и x2 = a21 x1 + 1N b2 + e2 . R1 — коэффициент детерминации в
2 2 2
первой регрессии, R2 — во второй. Запишите соотношение между R1 и R2 .
Ответ обосновать.
12. Возможна ли ситуация, когда угловые коэффициенты в уравнениях прямой
и обратной регрессии построены на одних и тех же данных, соответственно
равны 0.5 и 3.0. Почему?
13. Что геометрически означает R2 = 0 и R2 = 1?
14. Регрессия x1 = ?12 x2 + ?1 + ?1 оценивается по двум наблюдениям. Чему
равен коэффициент детерминации?
? ?
?1 1 ?
? ?
? ?
15. Для x = (x1 , x2 ) = ?2 2? оцените параметры ортогональной регрессии
? ?
? ?
63
и коэффициент детерминации. Покажите, что линия ортогональной регрес-
сии находится между линиями прямой и обратной регрессии.
16. Какая из двух оценок коэффициента зависимости выпуска продукции от ко-
личества занятых в производстве больше: по прямой или по ортогональной
регрессии? Ответ обосновать.
17. Какая из двух оценок коэффициента зависимости спроса от цены больше:
по прямой или по ортогональной регрессии? Ответ обосновать.
220 Глава 6. Алгебра линейной регрессии

18. Какой вид имеет уравнение ортогональной регрессии для переменных x1
и x2 с одинаковыми значениями дисперсий и средних, а также имеющих
положительную корреляцию равную ??

19. Покажите, что решение задачи
?? ? ? ?? ? ?
?? m11 m12 ? ?1 0 ?? ? 1 ?
? ? ?? ? > min!

<<

стр. 8
(всего 28)

СОДЕРЖАНИЕ

>>