<<

стр. 2
(всего 3)

СОДЕРЖАНИЕ

>>

гда равен разности между объемом выборки n и числом связей l, нало-
женных на эту выборку. Эта разность
f=n–l (3.25)
называется числом степеней свободы выборки.
В практических вычислениях для выборочной дисперсии s2 часто
более удобна следующая формула, получаемая из (3.24) путем арифме-
тических преобразований:
2
?n ?
?
? xi ?
? ?
n
xi2 ? ?
i =1 ?
? n
i =1
s2 = . (3.26)
n ?1
Итак, для нормально распределенной случайной величины получа-
ют по выборке следующие оценки генеральных параметров распреде-
ления: среднее арифметическое x для математического ожидания m и
выборочную дисперсию s2 для генеральной дисперсии ?2.
Определим дисперсию среднего арифметического через дисперсию
единичного наблюдения, воспользовавшись свойствами дисперсии. Ес-
ли Х1, Х2, …, Хn — независимые случайные величины, а1, а2, …, аn —
неслучайные величины, а функция Z равна
Z = а1X1 + а2X2 + … + аnXn , (3.27)
то дисперсия Z определяется следующим образом:
? 2 ( Z ) = a1 ? 2 ( X 1 ) + a2 ? 2 ( X 2 ) + ... + an ? 2 ( X n ) .
2 2 2
(3.28)
Пусть в результате одной серии опытов получена выборка х1, х2, …,
хn. Если провести несколько серий подобных наблюдений, то в общем
случае будут получены другие совокупности значений случайной ве-
личины Х: х1', х2', …, хn'; х1'', х2'', …, хn'' и т.д. Поэтому значения х1, х2, …,

33
хn в серии из n наблюдений можно рассматривать как случайные вели-
чины с некоторыми дисперсиями ?2(х1), ?2(х2), …, ?2(хn). Поскольку
эти случайные величины возникают при измерении одной и той же
случайной величины Х, то дисперсии их естественно считать одинако-
выми:
?2(х1) = ?2(х2) = … = ?2(хn) = ?2. (3.29)
Применим теперь (3.28) для случая, когда Z является средним арифме-
тическим (в этом случае а1 = а2 = … = аn = 1/n):

[ ]
?2
12 1
2 2 2 2
? ( x) = 2 ? ( x1 ) + ? ( x2 ) + ... + ? ( xn ) = 2 n? = . (3.30)
n
n n
Из (3.30) следует, что дисперсия среднего в n раз меньше дисперсии
единичного измерения, поэтому для стандартного отклонения
?
?( x ) = . (3.31)
n
Если принять ?(x) в качестве меры случайной ошибки среднего
выборки, то увеличение числа параллельных определений одной и той
же величины снижает величину случайной ошибки. Это свойство слу-
чайной величины используют на практике для повышения точности ре-
зультатов измерений.
Так как свойства генеральных дисперсий сохраняются и для их
оценок — выборочных дисперсий, то
s 2 ( Z ) = a1 s 2 ( X 1 ) + a2 s 2 ( X 2 ) + ... + an s 2 ( X n ) ,
2 2 2
(3.32)

s2 (X ) s(X )
s 2 ( x) = , s ( x) = , (3.33)
n n
где s2 — выборочные дисперсии, s — выборочное отклонение.




34
ЛЕКЦИЯ 4
Доверительные интервалы и доверительная вероятность, уровень значи-
мости. Проверка статистических гипотез, критерии значимости, ошибки
первого и второго рода. Построение доверительного интервала для мате-
матического ожидания непосредственно измеряемой величины. Распреде-
ление Стъюдента.

4.1. Доверительные интервалы и доверительная вероятность,
уровень значимости.
Выборочные параметры распределения, определяемые по серии из-
мерений, являются случайными величинами, следовательно, и их от-
клонения от генеральных параметров также будут случайными. Оценка
этих отклонений носит вероятностный характер — при статистическом
анализе можно лишь указать вероятность той или иной погрешности.
Пусть для генерального параметра а получена из опыта несмещен-
ная оценка а*. Назначим достаточно большую вероятность ? (такую,
что событие с вероятностью ? можно считать практически достовер-
ным) и найдем такое значение ?? = f (?), для которого
( )
P a * ? a ? ?? = ? . (4.1)
Диапазон практически возможных значений ошибки, возникающей при
замене а на а*, будет ±??. Большие по абсолютной величине ошибки
будут появляться только с малой вероятностью
p = 1? ? , (4.2)
называемой уровнем значимости. Иначе выражение (4.1) можно интер-
претировать как вероятность того, что истинное значение параметра а
лежит в пределах
a * ? ?? ? a ? a * + ?? . (4.3)
Вероятность ? называется доверительной вероятностью и характе-
ризует надежность полученной оценки. Интервал I? = a* ± ?? называет-
ся доверительным интервалом. Границы интервала a? = a* - ?? и
a?? = a* + ?? называются доверительными границами. Доверительный
интервал при данной доверительной вероятности определяет точность
оценки. Величина доверительного интервала зависит от доверительной
вероятности, с которой гарантируется нахождение параметра а внутри
доверительного интервала: чем больше величина ?, тем больше интер-
вал I? (и величина ??). Увеличение числа опытов проявляется в сокра-
35
щении доверительного интервала при постоянной доверительной ве-
роятности или в повышении доверительной вероятности при сохране-
нии доверительного интервала.
На практике обычно фиксируют значение доверительной вероятно-
сти (0,9; 0,95 или 0,99) и затем определяют доверительный интервал
результата I?. При построении доверительного интервала решается за-
дача об абсолютном отклонении:
??

( )
P a * ? a ? ?? = P ( ?a ? ?? ) = F (?? ) ? F (- ?? ) = ? f (a) da = ? . (4.4)
-??

Таким образом, если бы был известен закон распределения оценки
а*, задача определения доверительного интервала решалась бы просто.
Рассмотрим построение доверительного интервала для математическо-
го ожидания нормально распределенной случайной величины Х с из-
вестным генеральным стандартом ? по выборке объемом n. Наилучшей
оценкой для математического ожидания m является среднее выборки x
со стандартным отклонением среднего
? ( x) = ? / n .
Используя функцию Лапласа, получаем
? ?? ?
P ( x ? mx ? ?? ) = ? = 2Ф?
? ? ( x) ? . (4.5)
?
? ?
Задавшись доверительной вероятностью ?, определим по таблице
функции Лапласа (приложение 1) величину k? = ? ? / ? ( x) . Тогда дове-
рительный интервал для математического ожидания принимает вид
x ? k? ? ( x ) ? m x ? x + k? ? ( x ) , (4.6)
или
? ?
x ? k?
? m x ? x + k? . (4.7)
n n
Из (4.7) видно, что уменьшение доверительного интервала обратно
пропорционально корню квадратному из числа опытов.
Знание генеральной дисперсии позволяет оценивать математиче-
ское ожидание даже по одному наблюдению. Если для нормально рас-
пределенной случайной величины Х в результате эксперимента полу-
чено значение х1, то доверительный интервал для математического
ожидания при выбранной ? имеет вид

36
x1 ? ? U1? p / 2 ? mx ? x1 + ? U1? p / 2 , (4.8)
где U1-p/2 — квантиль стандартного нормального распределения (при-
ложение 2).
Закон распределения оценки а* зависит от закона распределения ве-
личины Х и, в частности, от самого параметра а. Чтобы обойти это за-
труднение, в математической статистике применяют два метода:
1) приближенный — при n ? 50 заменяют в выражении для ?? неиз-
вестные параметры их оценками, например:
k? = ? ? / ? ( x ) ? ? ? / s ( x ) ;
2) от случайной величины а* переходят к другой случайной величине
?*, закон распределения которой не зависит от оцениваемого пара-
метра а, а зависит только от объема выборки n и от вида закона рас-
пределения величины Х. Такого рода величины наиболее подробно
изучены для нормального распределения случайных величин. В ка-
честве доверительных границ ?? и ??? обычно используются сим-
метричные квантили
? (1??) / 2 ? ?* ? ? (1+ ?) / 2 , (4.9)
или с учетом (4.2)
? p/2 ? ?* ? ?1? p/2 . (4.10)


4.2. Проверка статистических гипотез, критерии значимости,
ошибки первого и второго рода.
Под статистическими гипотезами понимаются некоторые пред-
положения относительно распределений генеральной совокупности той
или иной случайной величины. Под проверкой гипотезы понимают со-
поставление некоторых статистических показателей, критериев про-
верки (критериев значимости), вычисляемых по выборке, с их значе-
ниями, определенными в предположении, что данная гипотеза верна.
При проверке гипотез обычно подвергается испытанию некоторая ги-
потеза Н0 в сравнении с альтернативной гипотезой Н1.
Чтобы решить вопрос о принятии или непринятии гипотезы, зада-
ются уровнем значимости р. Наиболее часто используются уровни зна-
чимости, равные 0.10, 0.05 и 0.01. По этой вероятности, используя ги-
потезу о распределении оценки ?* (критерия значимости), находят
квантильные доверительные границы, как правило, симметричные ?p/2
37
и ?1-p/2. Числа ?p/2 и ?1-p/2 называются критическими значениями гипо-
тезы; значения ?* < ?p/2 и ?* > ?1-p/2 образуют критическую область
гипотезы (или область непринятия гипотезы) (рис. 12).




Рис. 12. Критическая область Рис. 13. Проверка статистических
гипотезы. гипотез.


Если найденное по выборке ?0 попадает между ?p/2 и ?1-p/2, то ги-
потеза допускает такое значение в качестве случайного и поэтому нет
оснований ее отвергать. Если же значение ?0 попадает в критическую
область, то по данной гипотезе оно является практически невозмож-
ным. Но поскольку оно появилось, то отвергается сама гипотеза.
При проверке гипотез можно совершить ошибки двух типов. Ошиб-
ка первого рода состоит в том, что отвергается гипотеза, которая на
самом деле верна. Вероятность такой ошибки не больше принятого
уровня значимости. Ошибка второго рода состоит в том, что гипотеза
принимается, а на самом деле она неверна. Вероятность этой ошибки
тем меньше, чем выше уровень значимости, так как при этом увеличи-
вается число отвергаемых гипотез. Если вероятность ошибки второго
рода равна ?, то величину (1 - ?) называют мощностью критерия.
На рис. 13 приведены две кривые плотности распределения случай-
ной величины ?, соответствующие двум гипотезам Н0 и Н1. Если из
опыта получается значение ? > ?p, то отвергается гипотеза Н0 и при-
нимается гипотеза Н1, и наоборот, если ? < ?p.
Площадь под кривой плотности вероятности, соответствующей
справедливости гипотезы Н0 вправо от значения ?p, равна уровню зна-
чимости р, т. е. вероятности ошибки первого рода. Площадь под кривой
плотности вероятности, соответствующей справедливости гипотезы Н1
влево от ?p, равна вероятности ошибки второго рода ?, а вправо от
?p — мощности критерия (1 - ?). Таким образом, чем больше р, тем
38
больше (1 - ?). При проверке гипотезы стремятся из всех возможных
критериев выбрать тот, у которого при заданном уровне значимости
меньше вероятность ошибки второго рода.
Обычно в качестве оптимального уровня значимости при проверке
гипотез используют p = 0,05, так как если проверяемая гипотеза при-
нимается с данным уровнем значимости, то гипотезу, безусловно, сле-
дует признать согласующейся с экспериментальными данными; с дру-
гой стороны, использование данного уровня значимости не дает осно-
ваний для отбрасывания гипотезы.
* *
Например, найдены два значения a1 и a2 некоторого выборочного
параметра, которые можно рассматривать как оценки генеральных па-
* *
раметров а1 и а2. Высказывается гипотеза, что различие между a1 и a2
случайное и что генеральные параметры а1 и а2 равны между собой,
т. е. а1 = а2. Такая гипотеза называется нулевой, или нуль-гипотезой.
*
Для ее проверки нужно выяснить, значимо ли расхождение между a1 и
*
a2 в условиях нулевой гипотезы. Для этого обычно исследуют случай-
ную величину ? a* = a1 – a2 и проверяют, значимо ли ее отличие от
* *

* *
нуля. Иногда удобнее рассматривать величину a1 / a2 , сравнивая ее с
единицей.
Отвергая нулевую гипотезу, тем самым принимают альтернатив-
* * * *
ную, которая распадается на две: a1 > a2 и a1 < a2 . Если одно из этих
равенств заведомо невозможно, то альтернативная гипотеза называется
односторонней, и для ее проверки применяют односторонние критерии
значимости (в отличие от обычных, двусторонних). При этом необхо-
димо рассматривать лишь одну из половин критической области
(рис. 12).
Например, р = 0,05 при двустороннем критерии соответствуют кри-
тические значения ?0.025 и ?0.975, т. е. значимыми (неслучайными) счи-
таются ?*, принявшие значения ?* < ?0.025 и ?* > ?0.975. При односто-
роннем критерии одно из этих неравенств заведомо невозможно (на-
пример, ?* < ?0.025) и значимыми будут лишь ?* > ?0.975. Вероятность
последнего неравенства равна 0,025, и, следовательно, уровень значи-
мости будет равен 0,025. Таким образом, если при одностороннем кри-
терии значимости использовать те же критические числа, что и при
двустороннем, этим значениям будет соответствовать вдвое меньший
уровень значимости.
Обычно для одностороннего критерия берут тот же уровень значи-
мости, что и для двустороннего, так как при этих условиях оба крите-
39
рия обеспечивают одинаковую ошибку первого рода. Для этого одно-
сторонний критерий надо выводить из двустороннего, соответст-
вующего вдвое большему уровню значимости, чем тот, что принят.
Чтобы сохранить для одностороннего критерия уровень значимости
р = 0,05, для двустороннего необходимо взять р = 0,10, что дает крити-
ческие значения ?0.05 и ?0.95. Из них для одностороннего критерия ос-
танется какое-нибудь одно, например, ?0.95. Уровень значимости для
одностороннего критерия равен при этом 0.05. Этому же уровню зна-
чимости для двустороннего критерия соответствует критическое значе-
ние ?0.975. Но ?0.95 < ?0.975, значит, при одностороннем критерии боль-
шее число гипотез будет отвергнуто и, следовательно, меньше будет
ошибка второго рода.

4.3. Построение доверительного интервала для математиче-
ского ожидания непосредственно измеряемой величины.
Распределение Стъюдента.
При отсутствии грубых и систематических ошибок математиче-
ское ожидание случайной величины совпадает с истинным результа-
том наблюдений. Легче всего оценить математическое ожидание при
известной дисперсии генеральной совокупности (выражения 4.6 – 4.8).
Однако значение ?2 нельзя получить из наблюдений, ее можно только
оценить при помощи выборочной дисперсии s2. Ошибка от этой замены
будет тем меньше, чем больше объем выборки n. На практике эту по-
грешность не учитывают при n ? 50 и в формуле (4.7) для доверитель-
ного интервала генеральный параметр ? заменяют выборочным стан-
дартом. В дальнейшем примем, что наблюдаемая случайная величина
имеет нормальное распределение.
При небольших объемах выборок для построения доверительного
интервала математического ожидания используют распределение
Стъюдента, или t-распределение. Распределение Стъюдента имеет ве-
личина t
x ? mx
t= n (4.11)
sx
с плотностью вероятности




40
? f + 1? ? f +1 ?
Г? ?? ??
2? ? 2 ?
1 ? 2 ? ?1 + t ? ?
? (t) = ? ? < t < +? ,
, (4.12)
?f? ? f?
?f
Г? ? ? ?
?2?
где Г(f ) — гамма-функция Эйлера:
?

?
Г ( z ) = e ? y y z ?1dy ; (4.13)
0

f — число степеней свободы выборки. Если дисперсия s2 и среднее x
определяются по одной и той же выборке, то f = n – 1.
Распределение Стъюдента зависит только от числа степеней свобо-
ды f, с которым определена выборочная дисперсия. На рис. 14 приведе-
ны графики плотности t-распределения для нескольких чисел свободы f
и нормальная кривая.




Рис. 14. Плотность распределения Стъюдента.

Кривые t-распределения по своей форме напоминают нормальную
кривую, но при малых f они медленнее сближаются с осью абсцисс при
t > ? . При f > ? s 2 > ? 2 , поэтому распределение Стъюдента
сближается (в пределе соответствует) с нормальным распределением.
Вероятность того, что случайная величина попадет в интервал (tp/2;
t1-p/2), определяется выражением


41
P (t p/2 ? t ? t1? p/2 ) = 1 ? p = ? . (4.14)
Распределение Стъюдента симметрично относительно нуля, поэтому
t p/2 = ?t1- p/2 . (4.15)
Учитывая симметрию t-распределения, часто пользуются обозначе-
нием tp(f ), где f — число степеней свободы, р — уровень значимости,
т. е. вероятность того, что t находится за пределами интервала (tp/2; t1-
p/2). Подставляя в (4.14) выражение для t (4.11) с учетом (4.15), получа-
ем неравенство
x ? mx
? t1? p/2 ? n ? t1? p/2 , (4.16)
sx
и после преобразований имеем
sx sx
x? t1? p/2 ? m x ? x + t1? p/2 . (4.17)
n n
Значения квантилей t1-p/2 для различных чисел степеней свободы f и
уровней значимости р приведены в приложении 3. Выражение (4.17)
означает, что интервал с доверительными границами
( x ? s ( x) t1? p/2 ) ? ( x + s ( x) t1? p/2 ) (4.18)
накрывает с вероятностью ? генеральное среднее измеряемой величи-
ны. Величина доверительного интервала (4.18) определяет надежность
среднего выборки. Величину
sx
s ( x) t1? p/2 = t1? p/2 = ? случ , (4.19)
n
т. е. половину доверительного интервала, называют случайной ошиб-
кой. С учетом только случайной ошибки результат измерений некото-
рой величины следует записывать так:
s
X = x ± ? случ = x ± x t1? p/2 . (4.20)
n




42
ЛЕКЦИЯ 5
Оценка случайной и суммарной ошибки косвенных измерений. Оценка
дисперсии нормально распределенной случайной величины; распределе-
ние Пирсона. Сравнение двух дисперсий, распределение Фишера.

5.1. Оценка случайной и суммарной ошибки косвенных измере-
ний.
В самом общем виде пример косвенных измерений формулируется
следующим образом: имеется известная функция нескольких аргумен-
тов
Z = f (X1, X2, …, Хk),
причем на опыте непосредственно измеряются случайные величины
X1, X2, …, Хk. При строгом статистическом анализе случайной ошибки Z
необходимо найти закон распределения функции по известным законам
распределения аргументов, что связано с большими вычислительными
трудностями. Из-за этого строгая оценка ошибки косвенных измерений
трудно выполнима и практически нецелесообразна. Поэтому исполь-
зуются упрощенные подходы, значительно облегчающие расчеты и
вместе с тем дающие удовлетворительные для практических целей ре-
зультаты.
Рассмотрим вначале случай, когда Z является известной функцией
только одного параметра X: Z = f (X). Введем допущение о том, что в
небольших интервалах изменения нормально распределенного аргу-
мента функция этого аргумента также подчиняется нормальному зако-
ну распределения. Пусть х1, х2, …, хn — результаты n измерений вели-
чины Х. Для каждого из хi можно найти соответствующее значение zi,
затем вычислить среднее z и выборочную дисперсию s2(Z) с числом
степеней свободы f = n – 1. Тогда согласно изложенному в предыдущем
разделе имеем
s (Z )
aслуч ( Z ) = s ( z ) t1? p/2 = t1? p/2 . (5.1)
n
При учете только случайной ошибки результат измерений функции
следует записать так:
s (Z )
Z = z ± aслуч ( Z ) = z ± t1? p/2 . (5.2)
n
Если f (x) является достаточно сложной функцией и каждый раз вы-
числение величины zi по значению хi трудоемко, то можно определить
43
сначала величины x и s (X), а затем пересчитать их в соответствующие
величины z и s (Z) при помощи приближенных формул:
z = f (x) , (5.3)

?f
s (Z ) = s(X ). (5.4)
?X X =x

Для случая, когда Z является извеcтной функцией нескольких аргу-
ментов, используем следующие допущения:
1) Случайные величины X1, X2, …, Хk независимы.
2) В небольших интервалах изменения аргументов функция Z рас-
пределена нормально.
3) Выборочная дисперсия величины z равна соответствующей ге-
неральной
s 2 ( z) = ?2 ( z) . (5.5)
Оценка случайной ошибки функции проводится в следующем по-
рядке. Находим среднее функции:
z = f ( x1 , x 2 , ..., x k ) , (5.6)
где x1 , x 2 , ..., x k — средние по выборкам соответствующих аргументов.
Затем по закону накопления ошибок оцениваем выборочную диспер-
сию
2
k
? ?f ?
? ? ?
2
s2 (x j ) .
s ( z) = (5.7)
? ?X j ?
j =1 ? ?X j = x j
Тогда величина случайной ошибки функции определяется следующим
образом:
? случ ( Z ) = U1? p / 2 s ( z ) , (5.8)
где U1-p/2 — квантиль стандартного нормального распределения (при-
ложение 2), равный 1,96 для уровня значимости р = 0,05.
При учете только случайной ошибки для доверительной вероятно-
сти ? = 0,95 результат измерений функции нескольких аргументов сле-
дует записать так:
Z = z ± ? случ ( Z ) = z ± U1? p / 2 s ( z ) = z ± 1.96 ? s ( z ) ? z ± 2 s ( z ) . (5.9)
Случайную ошибку косвенных измерений можно оценить также,
воспользовавшись формулами расчета погрешностей функций при-

44
ближенных аргументов (лекция 1) для случая, когда погрешности ар-
гументов независимы и случайны:
2 2
k k
? ?f ? ? ?f ?
? ? ? (2 s ( x j ) )2 , (5.10)
? ?x j ? = ?
? случ ( Z ) ? 2 s ( z ) =
? ?X j ? ? ?X j ?
? ? j =1 ? ?
j =1

при этом в качестве абсолютной погрешности аргументов следует ис-
пользовать удвоенное значение среднеквадратичных отклонений их
средних
?x j = 2 s (x j ) . (5.11)
В общем случае при представлении результатов измерений следует
учитывать не только случайную, но и систематическую ошибку мето-
дики или прибора. Предполагая, что эти два типа ошибки взаимонеза-
висимы, суммарная ошибка измерений равна:
? сумм = ? сист + ? случ . (5.12)
Систематические ошибки являются величинами, не зависящими от
числа измерений, и определяются спецификой используемой аппарату-
ры и методом измерений. Так, например, с помощью ртутного термо-
метра нельзя измерить температуру с точностью, большей 0,01 оС (ред-
ко 0,005 оС); значение эталонного сопротиления может быть известно с
точностью 0,1% или 0,01%; и т. д. Если и источники, и величины сис-
тематических ошибок определены, то их влияние на окончательный ре-
зультат косвенных измерений для функции нескольких аргументов
можно оценить как предельную абсолютную погрешность по формуле
(лекция 1)
k

? ?f
? сист = ? пр ? ?x j . (5.13)
?X j
j =1

Величина систематической ошибки ограничивает число верных знача-
щих цифр при представлении результатов эксперимента. С учетом сис-
тематической ошибки результат любого измерения следует записывать
следующим образом:
Z = z ± ? сумм = z ± (? сист + ? случ ) . (5.14)




45
5.2. Оценка дисперсии нормально распределенной случайной
величины.

Дисперсию генеральной совокупности ?2 нормальной распределен-
ной случайной величины можно оценить, если известно распределение
ее оценки — выборочной дисперсии s2. Распределение выборочной
дисперсии можно получить при помощи распределения Пирсона или
?2-распределения.
Пусть имеется выборка n независимых наблюдений х1, х2, …, хn над
нормально распределенной случайной величиной. Можно показать, что
сумма
n 2

? ? xi ? x ?
?2 = ? ? (5.15)
???
i =1

имеет распределение с f = n – 1 степенями свободы. Плотность ?2 рас-
пределения зависит только от числа степеней свободы f:
2
f -2 ? ?
()
1
?2 2 e 2 0 ? ?2 ? ? ,
? (?2) = , (5.16)
2 f /2 Г ( f /2 )
где Г(f ) — гамма-функция. На рис. 15 приведены кривые плотности ве-
роятности ?2 распределения при некоторых значениях f. Кривые асим-
метричны, степень асимметрии уменьшается с увеличением f.




Рис. 15. Плотность ?2-распределения.

При доверительной вероятности ? = 1 – р двусторонняя довери-
тельная оценка для ?2 имеет вид
? 2 /2 ? ? 2 ? ?1- p/2 ,
2
(5.17)
p


46
односторонние оценки имеют вид
? 2 ? ?1-p , ? 2 ? ? 2 .
2
(5.18)
p
2
Квантили ?1- p при различных р и f приведены в приложении 4.
Поскольку выборочная дисперсия определяется по формуле
n n

? (xi ? x ) ? (xi ? x )2
2

i =1 i =1
s2 = = ,
n ?1 f
то с учетом (5.15) имеем:
?2 = f s 2 / ?2 . (5.19)
Подставляя (5.19) в (5.17) и решая полученное неравенство относи-
тельно ?2, получим доверительные двусторонние границы для гене-
ральной дисперсии:
? 2 /2 ? f s 2 ? 2 ? ?1- p/2 ,
2
(5.20)
p

f s2 f s2
2
?? ? 2 . (5.21)
2
?1- p/2 ? p/2
Аналогично получаются односторонние доверительные оценки:
? 2 ? f s 2 ? 2 , ? 2 ? f s 2 ?1- p .
2
(5.22)
p

С ростом числа степеней свободы асимметрия кривых ?2-распре-
деления уменьшается, соответственно уменьшается и асимметрия до-
верительных границ. Можно показать, что при n ? 30 выборочный
стандарт s распределен приближенно нормально с математическим
ожиданием ms = ? и среднеквадратичной ошибкой
?s = ? / 2 f . (5.23)
Неизвестный генеральный стандарт в (5.23) при n ? 30 заменяют выбо-
рочным
?s ? s / 2 f . (5.24)
Тогда по уравнению (4.8) (лекция 4) доверительные границы для гене-
рального стандарта определяются неравенством
s ? ( s / 2 f ) U1? p/2 ? ? ? s + ( s / 2 f ) U1? p/2 . (5.25)


47
5.3. Сравнение двух дисперсий. Распределение Фишера.
При обработке результатов измерений часто бывает необходимым
сравнить две или несколько выборочных дисперсий. Основная гипоте-
за, которая при этом проверяется, следующая: можно ли считать срав-
ниваемые выборочные дисперсии оценками одной и той же генераль-
ной дисперсии? Рассмотрим две выборки
х1?, х2?, …, xn1 ' и х1??, х2??, …, xn 2 ' ' ,
средние значения которых равны x1 и x2 . Выборочные дисперсии оп-
ределяются со степенями свободы f1 = n1 – 1 и f2 = n2 – 1:
n1 n2

? (xi '? x1 ) ? (xi ' '? x2 )
i =1 i =1
2 2
s1 = ; s2 = . (5.26)
f1 f2
2 2
Требуется выяснить, являются ли выборочные дисперсии s1 и s2 зна-
чимо различными или же полученные выборки можно рассматривать
как взятые из генеральных совокупностей с равными дисперсиями.
Допустим, что первая выборка была взята из генеральной совокуп-
2
ности с дисперсией ?1 , а вторая — из генеральной совокупности с
дисперсией ? 2 . Проверяется нулевая гипотеза о равенстве генераль-
2
ных дисперсий Н0: ?1 = ? 2 . Чтобы отвергнуть эту гипотезу, нужно до-
2
2
2 2
казать значимость различия между s1 и s2 при выбранном уровне зна-
чимости р.
В качестве критерия значимости обычно используется критерий
Фишера. Распределением Фишера (F-распределением, v2-распределе-
нием) называется распределение случайной величины
2 2
( s1 / ?1 )
F= 2 2 . (5.27)
( s2 / ? 2 )
Плотность F-распределения определяется выражением
? f + f2 ?
Г? 1 ?
F ( f1 ? 2 ) / 2
f2
? f1 ? 1
? 2 ?? ?
? (F) = , 0 ? F ? ?, (5.28)
?f ? ( f1 + f 2 ) / 2
?f ? ?f ?
Г? 1 ? Г? 2 ? ? 2 ? ? f?
?1 + 1 F ?
? f2 ?
?2? ?2?
? ?


48
где Г(f ) — гамма-функция. Распределение Фишера зависит только от
числа степеней свободы f1 и f2. На рис. 16 приведены кривые плотности
вероятности F-распределения для некоторых значений f1 и f2. Кривые
имеют асимметричную форму.




Рис. 16. Плотность F-распределения.

В приложении 5 приведены квантили F1-p (критерии Фишера) для
уровня значимости р = 0,05. Для определения квантилей Fр использует-
ся соотношение
1
F p ( f1 , f 2 ) = . (5.29)
F1- p ( f 2 , f1 )

В условиях нулевой гипотезы ?1 = ? 2 и ?1 / ? 2 = 1 и, следователь-
2 2
2 2
но, F-распределение может быть непосредственно использовано для
22
оценки отношения s1 / s2 . При доверительной вероятности (1 – р) дву-
сторонняя оценка величины F имеет вид
F p / 2 ( f1 , f 2 ) ? F ? F1? p / 2 ( f1 , f 2 ) (5.30)
или с учетом (5.29)
1
? F ? F1? p / 2 ( f1 , f 2 ) . (5.31)
F1? p / 2 ( f 2 , f1 )
2 2
В условиях нулевой гипотезы F = s1 / s2 и, следовательно, с вероят-
ностью (1 – р) должно выполняться двустороннее неравенство
2
s1
1
? 2 ? F1? p / 2 ( f1 , f 2 ) (5.32)
F1? p / 2 ( f 2 , f1 ) s 2

49
или одно из односторонних неравенств, например, для оценки сверху:
2
s1
? F1? p ( f1 , f 2 ) . (5.33)
2
s2
Вероятность неравенств, противоположных (5.32) – (5.33), равна
уровню значимости р; они образуют критическую область для нулевой
гипотезы. Если полученное дисперсионное отношение попадает в кри-
тическую область, то различие между дисперсиями значимо. Для удоб-
2
ства будем обозначать большую дисперсию через s1 .
При проверке нулевой гипотезы ?1 = ? 2 односторонний критерий
2
2
применяется, если альтернативной гипотезой является ?1 > ? 2 , т. е.
2
2
что большей выборочной дисперсии заведомо не может соответство-
вать меньшая генеральная. При этом различие между дисперсиями со-
гласно (5.33) следует считать значимым, если
2
s1
> F1? p ( f1 , f 2 ) . (5.34)
2
s2
Значения F1-p ( f1, f2) для р = 0,05 приведены в приложении 5.
Двусторонний критерий значимости применяется для альтернатив-
ной гипотезы ?1 ? ? 2 , т. е. когда соотношение между генеральными
2
2
дисперсиями неизвестно. При этом в неравенстве (5.32) необходимо
проверять только правую часть, так как левая часть всегда выполняется
по условию
2
s1 1
> 1, а <1
2 F1? p / 2 ( f 2 , f1 )
s2
при небольших р. При этом различие между дисперсиями следует счи-
тать значимым, если
2
s1
> F1? p / 2 ( f1 , f 2 ) . (5.35)
2
s2
Критерий Фишера используется для сравнения дисперсий и в том
случае, когда одна из дисперсий является генеральной (ее число степе-
ней свободы считается равным ?).




50
ЛЕКЦИЯ 6
Определение дисперсии по текущим измерениям. Сравнение нескольких
дисперсий; критерии Бартлета, Кохрена. Сравнение двух средних; расчет
средневзвешенного значения. Проверка однородности результатов изме-
рений. Сравнение выборочного распределения и распределения генераль-
ной совокупности; критерии согласия Пирсона, Колмогорова.

6.1. Определение дисперсии по текущим измерениям. Сравне-
ние нескольких дисперсий.
Математическое ожидание и дисперсия генеральной совокупности
оцениваются средним и дисперсией выборки тем точнее, чем больше
объем выборки. При этом среднее характеризует результат измерений,
а дисперсия — точность этого результата (дисперсия воспроизводимо-
сти). Если проделано n параллельных опытов (опытов, проведенных
при неизменном комплексе основных факторов) и получена выборка y1,
y2, …, yn значений измеряемой величины, то дисперсия воспроизводи-
мости равна
n n
? ( yu ? y ) ? yu
2

u =1 u =1
2
sвоспр. = , где y = , (6.1)
n ?1 n
и ошибка опыта (ошибка воспроизводимости)
2
sвоспр. = sвоспр. (6.2)
Для оценки точности применяемой методики можно поставить спе-
циальную серию опытов, многократно повторяя измерение для одного
и того же образца. Однако более надежным методом является опреде-
ление ошибки воспроизводимости по текущим измерениям. Предполо-
жим, что выполняются измерения некоторой физической характери-
стики для k образцов, при этом для каждого образца делается различ-
ное число параллельных опытов: n1, n2, …, nk. Частные дисперсии для
2 2 2
каждой выборки обозначим как s1 , s2 , …, sk . Числа степеней свободы
частных дисперсий равны: f1 = n1 – 1, f2 = n2 – 1, …, fk = nk – 1. Общая
дисперсия воспроизводимости всех опытов будет равна средневзвешен-
ному значению частных дисперсий (в качестве весов берутся степени
свободы):



51
2 2 2
f1s1 + f 2 s2 + ... + f k sk
2
sвоспр. = =
f1 + f 2 + ... + f k

(n1 ? 1)s12 + (n2 ? 1) s2 + ... + (nk ? 1) sk
2 2
= . (6.3)
n1 + n2 + ... + nk ? k
Число степеней свободы общей дисперсии равно общему числу из-
мерений минус число связей, использованных для определения k сред-
них:
k

?n j ? k .
f воспр. = n1 + n2 + ... + nk ? k = (6.4)
j =1

Если число опытов для каждого образца одинаково (n1 = n2 = … =
= nk = n), то
k k
(n ? 1)? ?
s2 s2
) j j
(n ? 1)( 2 2 2
+ + ... +
s1 s2 skj =1 j =1
2
sвоспр = = = , (6.5)
k (n ? 1)
nk ? k k
т. е. при равном числе параллельных опытов общая дисперсия воспро-
изводимости равна среднеарифметическому значению частных диспер-
сий. Число степеней свободы равно fвоспр. = k (n - 1). Число степеней
свободы у общей дисперсии воспроизводимости гораздо больше, чем у
каждой дисперсии в отдельности. Поэтому общая дисперсия воспроиз-
водимости намного точнее оценивает дисперсию генеральной совокуп-
ности.
При вычислении дисперсии воспроизводимости по текущим изме-
рениям можно объединять между собой только те результаты, которые
можно рассматривать как выборки из генеральных совокупностей с
равными дисперсиями.
Итак, при определении оценки дисперсии по текущим измерениям
k

? f j s 2j
2 2 2
f1s1 + f 2 s2 + ... + f k sk j =1
2
= = (6.6)
sвоспр
f1 + f 2 + ... + f k f воспр
принимается нулевая гипотеза равенства соответствующих генераль-
ных дисперсий. Проверить эту гипотезу для выборок разного объема
можно по критерию Бартлета. Бартлет показал, что в условиях нуле-
вой гипотезы отношение В/С, где


52
k

?
2
f j ln s 2 ,
B = f воспр ln sвоспр ? (6.7)
j
j =1

? ?
k

?
1? 1?
1
C = 1+ ? ?, (6.8)
3(k ? 1) ?
? f j f воспр ?
? ?
j =1

распределено приближенно как ?2 с k – 1 степенями свободы, если все
fj > 2. Гипотеза равенства генеральных дисперсий принимается, если
при выбранном уровне значимости р
2
B / C ? ?1? p . (6.9)
Различие между выборочными дисперсиями можно считать незначи-
мым, а сами выборочные дисперсии — однородными. Так как всегда
2
С > 1, то при B ? ?1? p нулевую гипотезу следует принять; если же
2
B > ?1? p , то критерий Бартлета вычисляют полностью.
Если выборочные дисперсии получены по выборкам одинаковых
объемов (n1 = n2 = … = nk = n), то для их сравнения используют более
удобный и точный критерий Кохрена. Кохрен исследовал распределе-
ние отношения максимальной выборочной дисперсии к сумме всех
дисперсий
2
smax
G= (6.10)
k

? s2
j
j =1

Распределение случайной величины G зависит только от числа сумми-
руемых дисперсий k и числа степеней свободы f = n – 1, с которым оп-
ределена каждая дисперсия.
В приложении 6 приведены квантили G1-p для уровня значимости
р = 0,05. Если найденное по выборочным дисперсиям значение крите-
рия Кохрена окажется меньше табличного
G < G1? p (k , f ) , (6.11)
то расхождение между дисперсиями следует считать случайным при
выбранном уровне значимости. Если при этом определяется оценка для
дисперсии воспроизводимости, то однородные дисперсии можно ус-
реднить.


53
6.2. Сравнение двух средних. Расчет средневзвешенного значе-
ния.
Для сравнения между собой двух средних, полученных по выбор-
кам из нормально распределенных генеральных совокупностей, приме-
няется критерий Стъюдента.
Пусть заданы две случайные выборки объемами n1 и n2. Первая вы-
борка взята из нормально распределенной совокупности с параметрами
mx и ?x2, вторая — из совокупности с параметрами my и ?y2. По выбор-
кам получены оценки для этих параметров: x , s x и y , s 2 . Требуется
2
y
проверить нулевую гипотезу: mx = my при условии ?x2 = ?y2 = = ?2. Од-
нородность дисперсий s x и s 2 проверяется по критерию Фишера. Рас-
2
y
смотрим случайную величину
z = x? y. (6.12)
По свойству линейности (уравнения 2.37 – 2.38) величина z распреде-
лена нормально с параметрами
mz = mx ? m y , (6.13)
2
?2 ? y ?1 1?
?2 = ?2 + ?2 = x + = ?2 ? + ? . (6.14)
?n n ?
z x y
n1 n2 ?1 2?

Составим нормированную случайную величину
( )
z ? m z (x ? y ) ? m x ? m y
= . (6.15)
? (1/n1 + 1/n2 )
?z
При замене генерального стандарта выборочным получается величина,
имеющая распределение Стъюдента:
(x ? y ) ? (mx ? m y )
t= , (6.16)
s (1/n1 + 1/n2 )
с числом степеней свободы f = n1 + n2 – 2. В качестве выборочного
стандарта используется ошибка опыта, равная
(n1 ? 1) s12 + (n2 ? 1) s2 .
2 2 2
f1s1 + f 2 s 2
s= = (6.17)
f1 + f 2 n1 + n2 ? 2
При доверительной вероятности ? = 1 – р получаем двустороннюю
оценку для разности (mx - my)

54
x ? y ? t1? p / 2 s (1 / n1 + 1 / n2 ) ? m x ? m y ?

? x ? y + t1? p / 2 s (1 / n1 + 1 / n2 ) (6.18)
или односторонние оценки
m x ? m y ? x ? y + t1? p s (1 / n1 + 1 / n2 ) , (6.19)

m x ? m y ? x ? y ? t1? p s (1 / n1 + 1 / n2 ) . (6.20)
В условиях нулевой гипотезы mx = my и неравенства (6.18) – (6.20)
дают критерий проверки этой гипотезы. Нулевая гипотеза отвергается
при двустороннем критерии, если
x ? y > t1? p / 2 s (1 / n1 + 1 / n2 ) , (6.21)
и при одностороннем критерии, если
x ? y > t1? p s (1 / n1 + 1 / n2 ) . (6.22)
В том случае если выборочные средние являются оценками одного и
того же математического ожидания и выборочные дисперсии однород-
ны, то полученные выборки можно объединить в одну серию и рассчи-
тать для нее общие среднее и дисперсию.
Приведенными критериями нельзя пользоваться, если выборочные
дисперсии неоднородны (т. е. ? 2 ? ? 2 ). Для этого случая существует
x y
несколько приближенных критериев для сравнения двух средних. При
n1 = n2 = n можно воспользоваться приближенным t-критерием:
(x ? y ) n
t? (6.23)
2
s2
+
sx y

2
n ?1 sx
с числом степеней свободы f = , где c = .
2
? s2
2 2
c ? (1 ? c) sx y
2
Если число степеней свободы дисперсии s x равно f1 = n1 – 1, дис-
персии s 2 — f2 = n2 – 1, можно использовать другой приближенный
y
критерий. Вычислим величину
?1 t1? p / 2 ( f1 ) + ? 2 t1? p / 2 ( f 2 )
T= , (6.24)
?1 + ? 2
где ?1 = s x / n1 и ? 2 = s 2 / n2 . Нулевая гипотеза отвергается, если
2
y

55
x? y >T .
Сформулированный критерий является двусторонним, он превращается
в односторонний при замене р/2 на р.
При сравнении нескольких средних можно использовать t-крите-
рий, проводя сравнение попарно. Если выборочные средние оценивают
одно и то же математическое ожидание, то в качестве единственной
наилучшей оценки обычно используется средневзвешенное значение.
Пусть независимым образом получено k оценок ( j = 1, 2,…, k) некото-
рой величины Х:
s (x j )
xj ± t1? p / 2 ( f j ) = x j ± ? x j . (6.25)
nj
Определим вес результата, полученного в каждой серии опытов:
w j =1 ?x j2 . (6.26)
Тогда средневзвешенное значение (наилучшая оценка для Х) равно
k k

? wj x j ? wj ,
X= (6.27)
j =1 j =1

а его погрешность определяется формулой
k

? wj .
?X = (6.28)
1
j =1


6.3. Проверка однородности результатов измерений.
Грубые измерения являются результатом поломки прибора или не-
досмотра экспериментатора, и результат, содержащий грубую ошибку,
сильно отличается по величине. На этом основаны статистические кри-
терии оценки и исключения грубых измерений. Наличие грубой ошиб-
ки в выборке нарушает характер распределения случайной величины,
изменяет его параметры, т.е. нарушается однородность наблюдений.
Следовательно, выявление грубых ошибок можно трактовать как про-
верку однородности наблюдений, т. е. проверку гипотезы о том, что все
элементы выборки получены из одной и той же генеральной совокуп-
ности.



56
Пусть имеется выборка х1, х2, …, хn значений нормально распреде-
ленной случайной величины Х. Обозначим через хmax (хmin) наибольший
(наименьший) результат измерений. Величины
xmax ? x
?= , (6.29)
n ?1
s?
n
x ? xmin
?' = (6.30)
n ?1
s?
n
имеют специальное распределение, зависящее только от числа степе-
ней свободы f = n – 2. В приложении 7 приведены значения ? (??) для
р = 0,10; 0,05; 0,025 и 0,01 при числе степеней свободы от 1 до 23. Ве-
личина хmax (хmin) исключается из выборки как грубое измерение (на
уровне значимости р), если определенное по формулам (6.29) и (6.30)
значение ? или ?? окажется больше табличного.
Если сомнение вызывают два или три элемента выборки, поступают
следующим образом. Для всех сомнительных элементов вычисляют ?
(??), и исследование начинается с элемента, имеющего наименьшее
значение ? (??). Остальные сомнительные элементы из выборки исклю-
чаются. Для этой уменьшенной выборки вычисляют x , s и новое зна-
чение ? (??) для исследуемого элемента. Если исследуемый элемент яв-
ляется грубым измерением, еще с большим основанием можно считать
грубыми ранее исключенные элементы. Если исследуемый элемент не
является грубым измерением, его присоединяют к выборке и начинают
исследовать следующий по величине ? (??) элемент выборки, при этом
снова вычисляя новые значения x , s, и т.д.

6.4. Сравнение выборочного распределения и распределения
генеральной совокупности. Критерии согласия Пирсона и
Колмогорова.
Гипотезу о нормальности изучаемого распределения в математиче-
ской статистике назыают основной гипотезой. Проверку этой гипотезы
по выборке проводят при помощи критериев согласия. Критерии со-
гласия позволяют определить вероятность того, что при гипотетиче-
ском законе распределения наблюдающееся в рассматриваемой выбор-
ке отклонение вызывается случайными причинами, а не ошибкой в ги-
потезе. Если эта вероятность велика, то отклонение от гипотетического
57
закона распределения следует признать случайным и считать, что гипо-
теза о предполагаемом законе распределения не опровергается. Крите-
рий согласия позволяет лишь утверждать, что гипотеза не противоре-
чит опытным данным, если вероятность наблюдаемого отклонения от
гипотетического закона велика. Чаще всего используется один из двух
критериев согласия: критерий Пирсона (критерий ?2) и критерий Кол-
могорова.
Критерий согласия Пирсона. Для применения критерия ?2 весь
диапазон изменения случайной величины в выборке объема n разбива-
ется на k интервалов (от 8 до 20). Число элементов выборки, попавших
в i-интервал, обозначим через ni. Построенная по этим данным гисто-
грамма выборочного распределения служит основанием для выбора
типа закона распределения.
Параметры этого распределения могут быть найдены или из теоре-
тических соображений, или нахождением их оценок по выборке. На
основании принятого закона распределения вычисляются вероятности
рi попадания случайной величины Х в i-интервал. Величина, характери-
зующая отклонение выборочного распределения от предполагаемого,
определяется формулой

(ni ? np i )2
k

?
?2 = , (6.31)
np i
i =1

где k — число интервалов; n — объем выборки.
Сумма (6.31) имеет приближенно ?2-распределение с f = (k – c – 1)
степенями свободы, где с — число параметров гипотетического закона
распределения, определяемых по выборке. Для нормального распреде-
ления с = 2, если и x , и s определяются по данной выборке.
Гипотеза о принятом типе закона распределения принимается на
выбранном уровне значимости р, если ? 2 ? ?1- p , где ?1- p — квантиль
2 2

распределения Пирсона для данного р и числа степеней свободы f
(приложение 4). В противном случае делается вывод о том, что гипоте-
за не согласуется с выборочным распределением.
При использовании критерия ?2 желательно, чтобы объем выборки
был достаточно велик: n ? 50 ? 150, а количество элементов ni ? 5 ? 8.
Вероятности рi для нормального закона распределения можно опреде-
лить по формуле



58
?b? x? ?a? x?
P(a ? X ? b ) = Ф ? ?Ф?
? ?.
?s? ?s?
При подсчете теоретических вероятностей рi считается, что крайний
левый интервал простирается до -?; крайний правый — до +?.
Критерий согласия Колмогорова. Для применения этого критерия
необходимо определить наибольшее абсолютное отклонение выбороч-
ной функции распределения Fn(x) от генеральной F(x):
D = max Fn ( x ) ? F ( x ) , (6.32)
затем вычислить величину ?:
? = nD. (6.33)
Квантили ?1-р распределения Колмогорова приведены в приложе-
нии 8. Если ? < ?1-р, то гипотеза о совпадении теоретического закона
распределения F(x) с выборочным Fn(x) не отвергается. При ? ? ?1-р ги-
потеза отклоняется (или считается сомнительной). Уровень значимости
при применении критерия Колмогорова выбирают обычно равным 0.2
? 0.3.
Для нормального распределения F(x) определяется по формуле
? x ? x?
1
F (x ) = + Ф? ?.
2 ?s?
В случае выборок небольшого объема (n < 20) для проверки гипоте-
зы о законе распределения можно использовать простые критерии, ос-
нованные на сравнении генеральных параметров распределения и их
оценок, полученных по выборке. В качестве оцениваемых параметров
удобнее всего брать моменты.




59
ПРИЛОЖЕНИЯ
Приложение 1
x

?
1
exp(? x 2 / 2) d x .
Значения функции Лапласа Ф(х) =
2?
0

Ф(х) Ф(х) Ф(х)
х х х
0.00 0.0000 0.29 0.1141 0.58 0.2190
0.01 0.0040 0.30 0.1179 0.59 0.2224
0.02 0.0080 0.31 0.1217 0.60 0.2257
0.03 0.0120 0.32 0.1255 0.61 0.2291
0.04 0.0160 0.33 0.1293 0.62 0.2324
0.05 0.0199 0.34 0.1331 0.63 0.2357
0.06 0.0239 0.35 0.1368 0.64 0.2389
0.07 0.0279 0.36 0.1406 0.65 0.2422
0.08 0.0319 0.37 0.1443 0.66 0.2454
0.09 0.0359 0.38 0.1480 0.67 0.2486
0.10 0.0398 0.39 0.1517 0.68 0.2517
0.11 0.0438 0.40 0.1554 0.69 0.2549
0.12 0.0478 0.41 0.1591 0.70 0.2580
0.13 0.0517 0.42 0.1628 0.71 0.2611
0.14 0.0557 0.43 0.1664 0.72 0.2642
0.15 0.0596 0.44 0.1700 0.73 0.2673
0.16 0.0636 0.45 0.1736 0.74 0.2703
0.17 0.0675 0.46 0.1772 0.75 0.2734
0.18 0.0714 0.47 0.1808 0.76 0.2764
0.19 0.0753 0.48 0.1844 0.77 0.2794
0.20 0.0793 0.49 0.1879 0.78 0.2823
0.21 0.0832 0.50 0.1915 0.79 0.2852
0.22 0.0871 0.51 0.1950 0.80 0.2881
0.23 0.0910 0.52 0.1985 0.81 0.2910
0.24 0.0948 0.53 0.2019 0.82 0.2939
0.25 0.0987 0.54 0.2054 0.83 0.2967
0.26 0.1026 0.55 0.2088 0.84 0.2995
0.27 0.1064 0.56 0.2123 0.85 0.3023
0.28 0.1103 0.57 0.2157 0.86 0.3051


60
Продолжение приложения 1

Ф(х) Ф(х) Ф(х)
х х х
0.87 0.3078 1.22 0.3883 1.57 0.4418
0.88 0.3106 1.23 0.3907 1.58 0.4429
0.89 0.3133 1.24 0.3925 1.59 0.4441
0.90 0.3159 1.25 0.3944 1.60 0.4452
0.91 0.3186 1.26 0.3962 1.61 0.4463
0.92 0.3212 1.27 0.3980 1.62 0.4474
0.93 0.3238 1.28 0.3997 1.63 0.4484
0.94 0.3264 1.29 0.4015 1.64 0.4495
0.95 0.3289 1.30 0.4032 1.65 0.4505
0.96 0.3315 1.31 0.4049 1.66 0.4515
0.97 0.3340 1.32 0.4066 1.67 0.4525
0.98 0.3365 1.33 0.4082 1.68 0.4535
0.99 0.3389 1.34 0.4099 1.69 0.4545
1.00 0.3413 1.35 0.4115 1.70 0.4554
1.01 0.3438 1.36 0.4131 1.71 0.4564
1.02 0.3461 1.37 0.4147 1.72 0.4573
1.03 0.3485 1.38 0.4162 1.73 0.4582
1.04 0.3508 1.39 0.4177 1.74 0.4591
1.05 0.3531 1.40 0.4192 1.75 0.4599
1.06 0.3554 1.41 0.4207 1.76 0.4608
1.07 0.3577 1.42 0.4222 1.77 0.4616
1.08 0.3599 1.43 0.4236 1.78 0.4625
1.09 0.3621 1.44 0.4251 1.79 0.4633
1.10 0.3643 1.45 0.4265 1.80 0.4641
1.11 0.3665 1.46 0.4279 1.81 0.4649
1.12 0.3686 1.47 0.4292 1.82 0.4546
1.13 0.3708 1.48 0.4306 1.83 0.4664
1.14 0.3729 1.49 0.4319 1.84 0.4671
1.15 0.3749 1.50 0.4332 1.85 0.4678
1.16 0.3770 1.51 0.4345 1.86 0.4686
1.17 0.3790 1.52 0.4357 1.87 0.4693
1.18 0.3810 1.53 0.4370 1.88 0.4699
1.19 0.3830 1.54 0.4382 1.89 0.4706
1.20 0.3849 1.55 0.4394 1.90 0.4713
1.21 0.3869 1.56 0.4406 1.91 0.4719
61
Продолжение приложения 1

Ф(х) Ф(х) Ф(х)
х х х
1.92 0.4726 2.28 0.4887 2.72 0.4967
1.93 0.4732 2.30 0.4893 2.74 0.4969
1.94 0.4738 2.32 0.4898 2.76 0.4971
1.95 0.4744 2.34 0.4904 2.78 0.4973
1.96 0.4750 2.36 0.4909 2.80 0.4974
1.97 0.4756 2.38 0.4913 2.82 0.4976
1.98 0.4761 2.40 0.4918 2.84 0.4977
1.99 0.4767 2.42 0.4922 2.86 0.4979
2.00 0.4772 2.44 0.4927 2.88 0.4980
2.02 0.4783 2.46 0.4931 2.90 0.4981
2.04 0.4793 2.48 0.4934 2.92 0.4982
2.06 0.4803 2.50 0.4938 2.94 0.4984
2.08 0.4812 2.52 0.4941 2.96 0.49846
2.10 0.4821 2.54 0.4945 2.98 0.49856
2.12 0.4830 2.56 0.4948 3.00 0.49865
2.14 0.4838 2.58 0.4951 3.20 0.49931
2.16 0.4846 2.60 0.4953 3.40 0.49966
2.18 0.4854 2.62 0.4956 3.60 0.49984
2.20 0.4861 2.64 0.4959 3.80 0.499928
2.22 0.4868 2.66 0.4961 4.00 0.499968
2.24 0.4875 2.68 0.4963 5.00 0.499997
2.26 0.4881 2.70 0.4965




62
Приложение 2
Квантили нормального распределения.
1? p / 2 1? p / 2
U 1? p / 2 U 1? p / 2
p p
0.80 0.60 0.25 0.05 0.975 1.96
0.50 0.75 0.67 0.04 0.980 2.05
0.40 0.80 0.84 0.02 0.990 2.33
0.30 0.85 1.04 0.01 0.995 2.58
0.25 0.875 1.15 0.005 0.9975 2.81
0.20 0.90 1.28 0.002 0.999 3.09
0.15 0.925 1.44 0.001 0.9995 3.29
0.10 0.95 1.64 0.0001 0.99995 3.89




63
Приложение 3
Квантили распределения Стъюдента t1? p / 2 (t p ( f )) .

Уровни значимости р
Число
степеней
свободы f 0.20 0.10 0.05 0.02 0.01 0.005 0.001
1 3.08 6.31 12.71 31.82 63.66 127.32 636.32
2 1.89 2.92 4.30 6.97 9.93 14.09 31.60
3 1.64 2.35 3.18 4.54 5.84 7.45 12.94
4 1.53 2.13 2.78 3.75 4.60 5.60 8.61
5 1.48 2.02 2.57 3.37 4.03 4.77 6.86
6 1.44 1.94 2.45 3.14 3.71 4.32 5.96
7 1.42 1.90 2.37 3.00 3.50 4.03 5.41
8 1.40 1.86 2.31 2.90 3.36 3.83 5.04
9 1.38 1.83 2.26 2.82 3.25 3.69 4.78
10 1.37 1.81 2.23 2.76 3.17 3.58 4.59
11 1.36 1.80 2.20 2.72 3.11 3.50 4.44
12 1.36 1.78 2.18 2.68 3.06 3.43 4.32
13 1.35 1.77 2.16 2.65 3.01 3.37 4.22
14 1.34 1.76 2.15 2.62 2.98 3.33 4.14
15 1.34 1.75 2.13 2.60 2.95 3.29 4.07
16 1.34 1.75 2.12 2.58 2.92 3.25 4.02
17 1.33 1.74 2.11 2.57 2.90 3.22 3.97
18 1.33 1.73 2.10 2.55 2.88 3.20 3.92
19 1.33 1.73 2.09 2.54 2.86 3.17 3.88
20 1.33 1.73 2.09 2.53 2.85 3.15 3.85
22 1.32 1.72 2.07 2.51 2.82 3.12 3.79
24 1.32 1.71 2.06 2.49 2.80 3.09 3.75
26 1.32 1.71 2.06 2.48 2.78 3.07 3.71
28 1.31 1.70 2.05 2.47 2.76 3.05 3.67
30 1.31 1.70 2.04 2.46 2.75 3.03 3.65
40 1.30 1.68 2.02 2.42 2.70 2.97 3.55
60 1.30 1.67 2.00 2.39 2.66 2.91 3.46
120 1.29 1.66 1.98 2.36 2.62 2.86 3.37
? 1.28 1.64 1.96 2.33 2.58 2.81 3.29


64
Приложение 4
2
Квантили распределения Пирсона ?1? p .

Уровни значимости р
Число
степеней
0.99 0.98 0.95 0.90 0.80 0.70 0.50 0.30
свободы f
1 0.00016 0.0006 0.0039 0.016 0.064 0.148 0.455 1.07
2 0.020 0.040 0.103 0.211 0.446 0.713 1.386 2.41
3 0.115 0.185 0.352 0.584 1.005 1.424 2.336 3.66
4 0.30 0.43 0.71 1.06 1.65 2.19 3.36 4.9
5 0.55 0.75 1.14 1.61 2.34 3.00 4.35 6.1
6 0.87 1.13 1.63 2.2 3.07 3.83 5.35 7.2
7 1.24 1.56 2.17 2.83 3.82 4.67 6.35 8.4
8 1.65 2.03 2.73 3.49 4.59 5.53 7.34 9.5
9 2.09 2.53 3.32 4.17 5.38 6.39 8.34 10.7
10 2.56 3.06 3.94 4.86 6.18 7.27 9.34 11.8
11 3.1 3.6 4.6 5.6 7.0 8.1 10.3 12.9
12 3.6 4.2 5.2 6.3 7.8 9.0 11.3 14.0
13 4.1 4.8 5.9 7.0 8.6 9.9 12.3 15.1
14 4.7 5.4 6.6 7.8 9.5 10.8 13.3 16.2

<<

стр. 2
(всего 3)

СОДЕРЖАНИЕ

>>