Смекни!
smekni.com

Статистические методы обработки экспериментальных данных (стр. 3 из 4)

В критерии Пирсона в качестве такой меры расхождения используется величина

,

называемая статистикой «хи - квадрат» или статистикой Пирсона (вообще, статистикой называют любую функцию от результатов наблюдений). Ясно, что всегда c2 ³0, причем c2 = 0, тогда и только тогда, когда

при каждом i , т.е. когда все соответствующие эмпирические и теоретические частоты совпадают. Во всех остальных случаях c2¹0; при этом значение c2 тем больше, чем больше различаются эмпирические и теоретические частоты.

Прежде чем рассказать о применении статистики c2 к проверке гипотезы о закон е распределения , вычислим ее значение для данного варианта; это значение, найденное по данным наблюдений и в рамках выдвинутой гипотезы, будем обозначать через c2набл..

i ni

1

2

3

4

5

6

7

8

9

10

10

9

11

14

18

13

11

7

4

3

8,85

8,51

12,45

15,41

16,19

14,39

10,85

6,8

3,81

2,74

0,15

0,03

0,17

0,13

0,20

0,13

0,00

0,01

0,01

0,02

: 100 100 0,85

c2набл. = 0,85

5.4. Распределение статистики c2.

Случайная величина имеет c2распределение с r степенями свободы (r = 1; 2; 3; …), если ее плотность имеет вид

где cr – которая положительная постоянная ( cr определяется из равенства

). Случайная величина, имеющая распределение c2 с r степенями свободы, будет обозначаться
.

Для дальнейшего изложения важно лишь отметить, что, во – первых, распределение

определяется одним параметром – числом r степеней свободы и, во – вторых, существуют таблицы, позволяющие произвольно найти вероятность попадания значений случайной величины
в любой промежуток.

Вернемся теперь к статистике

. Отметим, что она является случайной величиной, поскольку зависит от результатов наблюдений и, следовательно, в различных сериях опытов принимает различные, заранее не известные значения. Понятно, кроме того, закон распределения статистики
зависит: 1) от действительного (но неизвестного нам) закона распределения случайной величины, измерения которой осуществляются (им определяются эмпирические частоты
) ; 2) от количества произведенных наблюдений (от числа n) и от способа разбиения числовой оси на промежутки (в частности, от числа i ); 3) от теоретического (выдвинутого в качестве гипотезы) закона распределения изучаемой случайной величины (им определяются теоретические вероятности pi и теоретические частоты
= n×pi)

Если выдвинутая гипотеза верна, то очевидно, закон распределения статистики
зависти только от закона распределения изучаемой случайной величины, от числа n и от выбора промежутков разбиения. Но на самом же деле, в этом случае (благодаря мастерски подобранному Пирсоном выражению для
) справедливо куда более серьезное утверждение. А именно, при достаточно больших n закон распределения статистики
практически не зависит от закона распределения изучаемой случайной величины и ни от количества n произведенных опытов: при
распределение статистики
стремится к
- распределению с
r степенями свободы. Эта теорема объясняет, почему статистика Пирсона обозначается через
.

Если в качестве предполагаемого выбрано одно их трех основных непрерывных распределений (нормальное, показательное или равномерное), то r = i – 3, где i – количество промежутков, на которые разбита числовая ось (количество групп опытных данных). В общем случае

где

- количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками.

Т.е. в данном варианте после группировки исходных данных получаем количество промежутков разбиения i = 10,

= 2, т.к. количество параметров предполагаемого (теоретического) распределения, которые заменены вычисленными по опытным данным оценками, = 2 – это а и s для нормального распределения.

Следовательно

R=i-Nпар-1=10-2-1=7

5.5. Правило проверки гипотезы о законе распределения случайной величины.

Ранее отмечалось (и этот факт очевиден), что статистика

принимает только не отрицательные значения (всегда c2 ³0), причем в нуль она обращается в одном – единственном случае – при совпадении всех соответствующих эмпирических и теоретических частот (т.е. при
для каждого i).

Если выдвинутая гипотеза о законе распределения изучаемой случайной величины соответствует действительности, то эмпирические и теоретические частоты должны быть примерно одинаковы, а значит, значения статистики

будут группироваться около нуля. Если же выдвинутая гипотеза ложна, то эмпирические и соответствующие теоретические частоты будут существенно разниться, что приведет к достаточно большим отклонениям от нуля значений
.

Поэтому хотелось бы найти тот рубеж – называемый критическим значением (или критической точкой) и обозначаемый через

, который разбил бы всю область возможных значений статистики
на два непересекающихся подмножества: область принятия гипотезы, характеризующаяся неравенством
, и критическую область (или область отвержения гипотезы), определяемую неравенством
.
Область принятия Критическая область

гипотезы


0

Как же найти критическое значение

?

Если выдвинутая гипотеза о законе распределения изучаемой случайной величины верна, то вероятность попадания значений статистики

в критическую область должна быть мала, так что событие {
} должно быть практически неосуществимым в единичном испытании. Эта вероятность, обозначим ее через
:

называется уровнем значимости.

Чтобы определить критическое значение

, поступим следующим образом. Зададим какое – либо малое значение уровня значимости
(как правило
= 0,05 или
= 0,01) и найдем
как уровень уравнения