Смекни!
smekni.com

Статистичний аналіз тенденцій захворюваності в Україні (стр. 5 из 38)

=

+ (Xβ)'(In – P)Xβ =

=

+ (Xβ)'(In – P)Xβ =

= σ2(p11 + p22 + … + pnn) + β'X'(In – P)Xβ =

= σ2tr(In – P) + β'X'(In – P)Xβ =

=

= σ2(n – p) + 0 = σ2(n – p)

Отже,

M(n – p)S2 = σ2(n – p)

MS2 = σ2.

Теорема доведена.

Виявляється, що S2, подібно до

, має певні властивості оптимальності, які наведено в наступній теоремі.

Теорема 1.1.5.

Нехай Y1, Y2, …, Yn – незалежні випадкові величини, які мають однакові дисперсії μ2 = 3σ2 і однакові треті та четверті моменти μ3 і μ4. Якщо M[Y] = Xβ, де матриця Х = Х(n × p), rangX = p, то DY = σ2I і (n – p)S2 є єдиною невід’ємною квадратичною незміщеною оцінкою для (n – p)σ2, яка має мінімальну дисперсію при μ4 = 3σ4 або при рівності всіх діагональних елементів матриці P.

Доведення.

Оскільки σ2 > 0, то будемо розглядати тільки невід’ємні оцінки.

Нехай Y'АY незміщена квадратична оцінка для (n - р)σ2. Порахуємо математичне сподівання та дисперсію оцінки Y'АY

(n - р)σ2 = M[Y'АY] = σ2 trА + β'Х'АХβ

для всіх β, тоді trА = n - р і β'Х'АХβ = 0 для всіх β. Отже, Х'АХ = 0

А- додатньо напіввизначена симетрична матриця
з Х'АХ = 0 випливає, що АХ = 0.

Позначимо а – вектор, утворений діагональними елементами матриці А і γ2 = (μ4 - 3σ4)/σ4, тоді згідно з лемою 1.1.2,

D[Y'АY] = (μ4 – 3(μ2)2)a'a + 2(μ2)2trA2 + 4(μ2)2(Xβ)'A2(Xβ) + 4μ3(Xβ)'Aa =

=

= (μ4 – 3(μ2)2)a'a + 2(σ2)2trA2 + 4(σ2)2β'X'AXβ +

+ 4μ3β'(AX)'a = σ4 γ2 а'а + 2σ4 trА2 . (1.1.11)

Далі розглянемо оцінку (n - р)S2, яка належить класу незміщених квадратичних оцінок для (n - р)σ2 згідно з теоремою 1.1.4

(n - р)S2 = (Y - X

)’(Y - X
) = Y(In - Р)Y = Y'RY

(де для стислості, введене позначення In - Р = R), trR2 = trR = n - р.

Розглянемо D[Y'RY]:

D[Y'RY] = σ4 γ2 r'r + 2σ4trR2 = σ4 γ2 r'r + 2σ4 (n - р). (1.1.12)

де r – вектор, утворений діагональними елементами матриці R.

Для того, щоб знайти достатні умови для мінімальності дисперсії оцінки Y'АY, покладемо А = R + D. Оскільки A та R симетричні, то матриця D також симетрична і trА = trR + trD.

Підставляємо: (n – p) = (n – p) + 0 таким чином, trD = 0. Оскільки АХ = 0, то АР = АХ(Х'Х)-1X' = 0, тоді

A = R + D

AP = RP + DP

AP = P – P2 + DP

0 = P – P + DP

DP = 0

Тоді


DR = D – DP = D – 0 = D

(останнє рівне також D = D' = RD, так як D симетрична).

Позначимо a = r + d, r – вектор діагональних елементів матриці R, d– вектор діагональних елементів матриці D.

A2 = (R + D)2 = R2 + DR + RD + D2 = R + 2D + D2

tr A2 = trR + 2trD + trD2 = (n - р) + trD2.

Підставляючи а = r + d і tr A2 в (1.1.11), одержуємо

D[Y'АY] = σ4 γ2 a'а + 2σ4trA2 = σ4 γ2(r + d)'(r + d) + 2σ4(n – p + trD2) =

= σ4 γ2(r' + d')(r + d) + 2σ4(n – p + trD2) =

= σ4 γ2(d'r + d'd + r'r + r'd) + 2σ4(n – p + trD2) =

= σ4γ2 r'r + 2σ4(n – p) + 2σ4

=

= D[Y'RY] + 2σ4

.

Щоб знайти оцінку з мінімальною дисперсією, потрібно мінімізувати D[Y'АY] за умов tr D = 0 і DR = D. У загальному випадку виконати таку мінімізацію досить важкою. Проте в двох важливих окремих випадках ця мінімізація виконується не важко. Перший випадок - це ситуація, коли γ2 = 0 При цьому

D[Y'AY] = D[Y'RY] + 2σ2

Остання ж величина досягає мінімуму, коли dij = 0 для всіх i, j, тобто коли D = 0 і А = R. Другий випадок - це випадок рівності всіх діагональних елементів матриці Р. При цьому всі вони рівні р11 = p22 = … = pnn

trR = trI – trP = n – p

tr Р = р.

Тому

р11 + p22 + … + pnn rii = p

npii = p

pii = p/n

Тоді діагональні елементи матриці R = (I – P) дорівнюють rii = 1 – pii = 1 – p/n = (n - р)/n для кожного і

D[Y'AY] = D[Y'RY] + 2σ4(

=

=

=

= D(Y'RY) + 2σ4

=

= D[Y'RY] + 2σ4

, (1.1.13)

Далі для будь–якої випадкової величини ξ виконується нерівність γ2 ≥-2. Дійсно,

0 ≤ D(ξ – Mξ)2 = M(ξ – Mξ)4 – (M(ξ - Mξ)2)2 = μ4 – (μ2)2 =

= μ4 – 3(μ2)2 + 2(μ2)2 = (μ2)24 / (μ2)2 – 3 + 2) =

=

= (μ2)22 + 2), отже γ2 ≥ -2

отже D[Y'АY] досягає мінімуму, коли dij = 0 для всіх i, j. Таким чином, в обох випадках дисперсія виявляється мінімальною тоді і тільки тоді, коли А = R. Теорема доведена. Доведена теорема говорить про те, що незміщена квадратична оцінка для σ2, з мінімальною дисперсією існує тільки при певних обмеженнях, наведених в теоремі. У припущенні нормальності, тобто при γ2 = 0, оцінка S2 є незміщеною оцінкою для σ2, яка має мінімальну дисперсією в класі всіх незміщених оцінок, а не тільки в класі квадратичних незміщених оцінок. Раніше ми припускали відносно похибок εi, що M[ε] = 0 і D[ε] = σ2In. Якщо додатково припустити, що похибки εi розподілені нормально, тобто ε ~ Nn(0, σ2In) (отже Y ~ Nn(Xβ, σ2In)), то можна одержати низку наступних результатів, пов'язаних з розподілами.

Теорема 1.1.6. Якщо Y ~ Nn(Xβ, σ2In), де Х = Х(n×p), rangX = p, тоді

(I)

~ Np(β, σ2(X'X)-1);

(II) (

- β)'X'X(
- β)/σ2 ~
;

(III)

не залежить від S2;

(IV) RSS/σ2 = (n – p)S22 ~

.

Доведення. (I) МНК – оцінка вектора β має вигляд

= (Х'Х)-1Х'Y, тоді
= СY, де C = (Х'Х)-1Х' - матриця розміру р×n, для якої rangС = rang(Х'Х)-1Х' = rangХ-1(Х')-1X' = rangХ-1 = p. Вектор Y ~ Nn(Xβ, σ2In). Генератриса моментів для вектора
дорівнює

M

= M
.

M(t) = M

= M
=
= M
=
=
=

- генератриса моментів

, де cXβ = (X’X)-1β = β,

2Ic’ = (X'X)-1X'σ2I((X'X)-1X')' = σ2(X'X)-1X'X(X'X)-1 = σ2(X'X)-1.

Генератриса функції моментів нормального розподілу ξ ~ N(a; σ2):

M(t) = Me =

,

Генератриса моментів для вектора

однозначно визначає щільність розподілу вектора
і дорівнює M(t) = Met'
,
, t = (t1, t2, …, tp)'