Смекни!
smekni.com

Статистичний аналіз тенденцій захворюваності в Україні (стр. 4 из 38)

соv[εi, εj] =

,

то D[ε] = σ2In,

D[Y] = D[Y - Xβ] = D[ε], отже D[Y] = σ2In.

Звідси одержуємо

D[

] = D[(Х'Х)-1Х'Y] = сov((Х'Х)-1X'Y, (Х'Х)-1X'Y) =

= (X'X)-1X'cov(Y,Y)((X'X)-1X')' = (X'X)-1X'DYX(X'X)-1 =

= (X'X)-1X'σ2IX(X'X)-1 = σ2(X'X)-1(X'X) (X'X)-1 = σ2(X'X)-1 (1.1.10)

Виникає таке питання: чому за оцінку вектора β ми вибираємо саме

(оцінку найменших квадратів), а не будь – яку іншу оцінку? Далі покажемо, що в деякому розумному класі оцінок
j, є оцінкою параметра βj з найменшою дисперсією. Цю оцінку
j можна „виділити" з вектора
= (
0,
1, ...,
p-1)' множенням зліва на вектор-рядок c', у якого (j +1)-й елемент рівний одиниці, а всі інші елементи дорівнюють нулю. Таку специфічну властивість оцінки
j, можна узагальнити на випадок довільної лінійної комбінації а'
. Для цього використовуємо наступну теорему.

Теорема 1.1.4.

Нехай

- оцінка найменших квадратів вектора
= Хβ. Тоді в класі всіх лінійних незміщених оцінок лінійної комбінації c'θ оцінка c'
є єдиною оцінкою, яка має мінімальну дисперсію. (Будемо говорити, що c'
є найкращою лінійною незміщеною оцінкою (НЛНО) для c'θ)

Доведення.

Оцінку найменших квадратів

вектора
= Хβ представимо у вигляді

= X

= X(Х'Х)-1X'Y = X(Х'Х)-1X'Y = PY,

при цьому


PX = X(Х'Х)-1X'X = X(Х'Х)-1X'X = XI = X .

Перевіримо, що c'

- лінійна незміщена оцінка для c'θ. Дійсно,

M[c'

] = Mc'РY = c'P MY = c'Pθ = c'PXβ = c'Xβ = c'θ

для всіх θ

Ω =
[Х] і c'
= c'PY = (P'c)'Y = (Рс)'Y. Розглянемо іншу лінійну незміщену оцінку для c'θ. Тоді M[d'Y] = c'θ з одного боку, а з іншого

M[d'Y] = d'MY = d'θ,

Тоді

c'θ = d'θ

(с' - d')θ = 0
(с- d)'θ = 0, тобто (c - d)
Ω = R(X).

Оскільки R(X) = R(P) в силу теореми 1.1.2, то

(c – d)

R(P), (c – d)'P = 0
((c – d)'P)' = 0'
P(c – d) = 0

Pc = Pd

Порахуємо дисперсію оцінки c'

:

Dc'

= D[(Рd)'Y] = D[(Рd)'Y] = Dd'P'Y = cov(d'P'Y, d'P'Y) =

= d'P'cov(Y, Y)(d'P')' = d'PDYPd = d'Pσ2IPd = σ2d'Р2d = σ2 d'Рd,

Тоді

D[d'Y] - D[c'

] = D[d'Y] - D[(Рd)' Y] =

= d'DYd - σ2d'Pd = σ2d'd - σ2d'Pd =

= σ2(d'd - d'Рd) = σ2d'(In - Р)d = {In – P = (In – P)2} =

= σ2 d'(In - Р)(In - Р)d = {In – P = (In – P)'} =

= σ2 d'(In - Р)'(In - Р)d = σ2 [(In - Р)d]'[(In - Р)d] ≥ 0

Рівність нулю досягається тоді й тільки тоді, коли

(In - Р)d = 0

d – Pd = 0

d = Рd = Рс

Тоді D(d'Y) ≥ D(c'

), при цьому c'θ = d'θ. Це і означає, що c'
має мінімальну дисперсію і є єдиною оцінкою з такою властивістю в класі всіх лінійних незміщених оцінок лінійних комбінацій c'θ.

Теорема доведена.

Теорема доведена в припущенні, що матриця X має ранг p, так що Р = X (Х'Х)-1X', і θ =Хβ випливає, що β = (Х'Х)-1Х'θ.

Нехай с' = а'(Х'Х)-1X', тоді звідси оцінка а'β = a'(X’X)-1X'

= с'
є НЛНО з мінімальною дисперсією для а'β при кожному а.

Зауваження. Якщо похибки εі незалежні й однаково розподілені ε ~

або, в еквівалентній формі, Y ~
, то a'
має мінімальну дисперсію серед усіх незміщених оцінок, а не тільки в класі лінійних незміщених оцінок.

Зокрема, МНК – оцінка

і, і = 0, …, p – 1 є також оцінкою максимальної правдоподібності, і вона ефективна оцінка для βі.

Якщо ж розподіл εi не є нормальним, то МНК – оцінка

і відрізняється від оцінки максимальної правдоподібності. В цьому випадку МНК – оцінка
і асимптотично ефективна для βі.

Оцінимо параметр σ2 = Dεi, але спочатку сформулюємо низку лем.

Лема 1.1.1. Нехай Y = Y(n×1) – випадковий вектор, А(n×n) = A – симетрична матриця. Якщо MY = θ, DY = ∑, тоді математичне сподівання квадратичної форми Y'AY дорівнює

M(Y'AY) = tr(A∑) + θ'Aθ

.Наслідок

Якщо ∑ = σ2I, то tr(A∑) = σ2trA.

Лема 1.1.2.

Нехай маємо n незалежних випадкових величин Y1, Y2, …, Yn з середніми θ1, θ2, …, θn, однаковими дисперсіями μ2 та однаковими третіми та четвертими центральними моментами μ3 та μ4 відповідно (μr = M(Yi – θi)r). Якщо A = = А(n×n) – симетрична матриця, а a – вектор – стовпець, утворений її діагональними елементами, тоді дисперсія квадратичної форми Y'AY дорівнює

D(Y'AY) = (μ4 – 3(μ2)2)a'a + 2(μ2)2trA2 + 4(μ2)2θ'A2θ + 4μ3θ'Aa

Теорема 1.1.4.

Якщо

М[Y] = Xβ, де Х = X(n×p), rangX = p, D[Y] = σ2 In,

тоді оцінка

є незміщеною оцінкою для σ2.

Доведення.

Похибку ε запишемо у вигляді:

ε = Y -

= Y - Х
= {
= (X'X)-1X'Y } = Y – X(X'X)-1X'Y =

= (In – X(X'X)-1X')Y = (In - Р)Y.

Тоді

(n - p)S2 = (Y - X

)'(Y - X
) = ((In – P)Y)'((In – P)Y) = Y'(In – P)'(In – P)Y = {(In – P)' = In – P – симетрична} =Y'(In – P)2Y = Y'(In – P)Y.

Виразимо Y'(In – P)Y з рівності:

(Y – Xβ)'(In – P)(Y – Xβ) = Y'(In – P)Y – Y'(In – P)Xβ – (Xβ)'(In – P)Y + (Xβ)'(In – P)Xβ;

Y'(In – P)Y = (Y – Xβ)'(In – P)(Y – Xβ) + Y'(In – P)Xβ + (Xβ)'(In – P)Y - (Xβ)'(In – P)Xβ.

Порахуємо M(n – p)S2

M(n – p)S2 = MY'(In – P)Y = {лема 1.1.1} = M(Y – Xβ)'(In – P)(Y – Xβ) +

+ MY'(In – P)Xβ + M(Xβ)'(In – P)Y – M(Xβ)'(In – P)Xβ =

= M(Y – Xβ)'(In – P)(Y – Xβ) + (Xβ)'(In – P)Xβ + (Xβ)'(In – P)Xβ –

- (Xβ)'(In – P)Xβ = M(Y – MY)'(In – P)(Y – MY) =

=

+ (Xβ)'(In – P)Xβ =