Смекни!
smekni.com

«Анализ модели множественной линейной регрессии» (стр. 4 из 7)

Если бы мы знали значение

, то могли бы сравнить с ним значение DW, рассчитанное для нашей регрессии. Если бы оказалось, что
то мы не смогли бы отклонить нулевую гипотезу от отсутствии автокорреляции. В случае
мы бы отклонили нулевую гипотезу и сделали вывод о наличии положительной автокорреляции.

Вместе с тем мы знаем только, что

находится где-то между
и
и предполагает наличие трех возможностей:

1. Величина DW меньше, чем

. В этом случае она будет также меньше, чем
и поэтому мы сделаем вывод о наличии положительной автокорреляции.

2. Величина DW больше, чем

, В этом случае она также больше критического уровня, и поэтому мы не сможем отклонить нулевую гипотезу.

З. Величина DW находится между

и
. В этом случае она может быть больше или меньше критического уровня. Поскольку нельзя определить, которая из двух возможностей налицо, мы не можем ни отклонить, ни принять нулевую гипотезу.

В случаях 1 и 2 тест Дарбина—Уотсона дает определенный ответ, но случай 3 относится к зоне невозможности принятия решения, и изменить создавшееся положение нельзя.

Проверка на отрицательную автокорреляцию проводится по аналогичной схеме, причем зона, содержащая критический уровень, расположена симметрично справа от 2. Величина (4-

) есть нижний предел, ниже которого признается отсутствие автокорреляции, а (4—
) — верхний предел, выше которого делается вывод о наличии отрицательной автокорреляции.

Таким образом, если DW находится между

и (4-
), то нет оснований отвергать нулевую гипотезу об отсутствии автокорреляции.

Для нашей модели DW=1.75,

=0,81,
=1,53 (при уровне значимости 1%), а (4-
)=2,47. Следовательно, в этом случае нет оснований отвергать нулевую гипотезу об отсутствии автокорреляции первого порядка.

4. Мультиколлинеарность

4.1. Мультиколлинеарность и ее последствия.

Мультиколлинеарность — это понятие, которое используется для описания проблемы, когда нестрогая линейная зависимость между объясняющими переменными приводит к получению ненадежных оценок регрессии. Разумеется, такая зависимость совсем необязательно дает неудовлетворительные оценки. Если все другие условия благоприятствуют, т. е. если число наблюдений и выборочные дисперсии объясняющих переменных велики, а дисперсия случайного члена — мала, то в итоге можно получить вполне хорошие оценки.

Итак, мультиколлинеарность должна вызываться сочетанием нестрогой зависимости и одного (или более) неблагоприятного условия, и это — вопрос степени выраженности явления, а не его вида. Оценка любой регрессии будет страдать от нее в определенной степени, если только все независимые переменные не окажутся абсолютно некоррелированными. Рассмотрение данной проблемы начинается только тогда, когда это серьезно влияет на результаты оценки регрессии.

Эта проблема является обычной для регрессий временных рядов, т. е. когда данные состоят из ряда наблюдений в течение какого-то периода времени. Если две или более независимые переменные имеют ярко выраженный временной тренд, то они будут тесно коррелированы, и это может привести к мультиколлинеарности.

4.2 Обнаружение мультиколлинеарности

Основной способ проверки наличия мультиколлинеарности среди поясняющих переменных состоит в исследовании корреляционной матрицы, состоящей из выборочных частичных коэффициентов корреляции. Значимость одного или нескольких коэффициентов означает присутствие в регрессионной модели явления автокорреляции.

В случае двух объясняющих переменных частичный выборочный коэффициент корреляции между y и

за исключением влияния
имеет вид

(4.2.1)

Остальные частичные коэффициенты корреляции вычисляются аналогично. Для случая трех и более регрессоров также существуют подобные формулы, но вследствие их громоздкости представляется более приятным с практической точки зрения следующий метод: вычисляется матрица Z, обратная к матрице полной корреляции, и тогда частичный выборочный коэффициент между переменными

и
равен

(4.2.2)

Вычислим полной корреляции для нашей модели.

х1

х2

х3

х4

х1

1

-0,50916

-0,664453715

0,301554799

х2

-0,509162268

1

0,741273537

-0,50786553

х3

-0,664453715

0,741274

1

-0,76295918

х4

0,301554799

-0,50787

-0,762959184

1

Вычислим матрицу Z.

2,187050344

-0,05801

2,322440805

1,082952756

-0,05800602

2,261181

-1,974634343

-0,3406974

2,322440805

-1,97463

6,478765795

3,239841974

1,082952756

-0,3407

3,239841974

2,972269121

Вычислим теперь матрицу частичных коэффициентов корреляции

х1

х2

х3

х4

х1

1

0,026084

-0,61698

-0,42475

х2

0,026084

1

0,515909

0,131419

х3

-0,61698

0,515909

1

-0,7383

х4

-0,42475

0,131419

-0,7383

1

Коэффициенты частичной корреляции между

и остальными регрессорами значимы. Дабы окончательно убедиться в наличии линейной зависимости между объясняющими переменными построим регрессии каждой из объясняющих переменных от остальных. В каждом из этих случаев коэффициент детерминации статистически значим. Следовательно, в нашей модели присутствует мультиколлинеарность.

5. Спецификация модели

Если точно известно, какие объясняющие переменные должны быть включены в уравнение при проведении регрессионного анализа, то наша задача — ограничиться оцениванием их коэффициентов, определением доверительных интервалов для этих оценок и т. д. Однако на практике мы никогда не можем быть уверены, что уравнение специфицировано правильно. Экономическая теория должна указывать направление, но теория не может быть совершенной. Не будучи уверенными в ней, мы можем включить в уравнение переменные, которых там не должно быть, и в то же время мы можем не включить другие переменные, которые должны там присутствовать. Вообще говоря, в проблему спецификации модели входят также вопросы выбора функциональной зависимости между y и объясняющими переменными. Но так как в данном случае нас интересует непосредственно множественная линейная регрессия, то мы не будем здесь рассматривать приемы функциональной спецификации.