Смекни!
smekni.com

Основы практического использования прикладного регрессионного анализа (стр. 3 из 4)

в) на практике часто стационарность автокорреляционной функции обеспечивается стационарностью дисперсии.

Учитывая эти допущения, проверку стационарности осуществляют исследованием одной реализации

.

Для этого реализация делится на N равных интервалов таких, что её участки в пределах каждого интервала можно считать независимыми. Для всех интервалов вычисляются средние значения и средние значения квадратов, из которых составляются две последовательности и затем их проверяют на наличие тренда.


Если известно выборочное распределение, то для проверки можно использовать существующие непараметрические критерии (t-критерий Стьюдента,

-критерий Пирсона, F-критерий Фишера), однако в обычной ситуации проверка стационарности осуществляется при высокой неопределенности относительно исследуемого процесса. В этом случае целесообразно использовать непараметрические критерии, например, критерий серий и критерий тренда

Критерий тренда основан на подсчете числа случаев, когда

для
в последовательности N наблюденных значений величины x.

Такое неравенство называется инверсией, а их число k определяется из соотношения

,

где

Число инверсий есть также случайная величина со средним

и дисперсией

.

Область принятия гипотезы ограничена интервалом

.

Критерий тренда обладает большей мощностью при выявлении монотонного тренда, однако при выявлении колебательного тренда его мощность невелика, в этом случае целесообразнее использовать критерий серий.

Критерии проверки гипотезы стационарности обладают рядом особенностей:

1) Нет необходимости знать ширину полосы частот исследуемых процессов;

2) Не требуется точно знать время осреднения, использованное для вычисления средних и квадратов отклонений от средних;

3) Для проверки не обязательно, чтобы исследуемые процессы были полностью случайными. При изучении процессов может возникнуть случай, когда независимость от времени средних и квадратов не является достаточным условием для утверждения о независимости от времени автокорреляционной функции.

1.3 Обнаружение выбросов в выборке

Выбросом среди остатков представляет собой остаток, который значительно превосходит по абсолютной величине остальные и отличается от среднего по остаткам на три, четыре или даже более стандартных отклонений.

Для обнаружения выбросов необходимо построить график остатков, определённых по формуле

В случае если

, данная точка будет характеризовать выброс. Следует отметить, что иногда выброс может дать полезную информацию. В этом случае необходимо более тщательное исследование выбросов, а не механическое их отбрасывание. Выбросы должны быть исключены сразу если выясняется, что они вызваны такими причинами, как ошибки в регистрации данных, неудовлетворительная настройка аппаратуры и т.д. Если имеется не одно аномальное измерение, то критерий
их не обнаруживает, особенно если анализируется менее 30 измерений.

1.4 Мультиколлинеарность переменных

Одно из основных предположений регрессионного анализа относится к матрице исходных данных: среди независимых переменных не должно быть линейно зависимых. Это требование необходимо для вычисления оценки

методом наименьших квадратов.

Мультиколлинеарность приводит к:

1)снижению точности, дисперсия оценок увеличивается, параметры модели коррелированны, что приводит к трудностям в интерпретации модели;

2)оценки коэффициентов становятся чувствительны к особенностям множества выборочных данных.

Причиной мультиколлинеарности могут служить:

1) наличие автокорреляции в ряду наблюдений;

2) корреляция между переменными;

3) высокий уровень помех.

Под мультиколлинеарностью будем понимать сопряженность независимых переменных, это означает "почти линейную зависимость" векторов

, т.е. существование чисел
таких, что:

(3.3)

Когда равенство (3.3) имеет место, говорят о строгой мультиколлинеарности.

При наличии мультиколлинеарности оценки МНК становятся положительными, т.е. дисперсия оценок будет весьма большой. При наличии (3.3) матрица

становится плохо обусловленной, в частности
, т.е.
.

1.4.1 Рекомендации по устранению мультиколлинеарности

Наиболее простой способ устранения мультиколлинеарности – исключение одной переменной из пары переменных, коэффициент корреляции между которыми больше 0,8.

Простейшие рекомендации по устранению мультиколлинеарности сводятся к сокращению рассматриваемого множества объясняющих переменных за счет тех из них, которые линейно связаны с уже включенными в модель. Выполнение этих рекомендаций ведет к построению сокращенной модели, которая не всегда соответствует требованию наблюдательности и управляемости. Чтобы избежать нежелательных эффектов мультиколлинеарности, сохранив при этом весь интересующий нас набор объясняющих переменных, предлагается увеличить размеры выборки путем получения дополнительной информации. Ясно, что не любое произвольное увеличение выборки ведет к ослаблению эффектов мультиколлинеарности.

Часто для устранения мультиколлинеарности используют приемы, основанные на предварительном преобразовании исходных данных путем получения отклонений от тренда. Однако, регрессионная модель, полученная благодаря таким преобразованиям, слабо поддается интерпретации. Иногда используют априорную информацию об имеющихся между параметрами связях в виде ограничений при вычислении оцениваемых параметров регрессии. За исключением простейших случаев, реализация этих подходов достигается существенным усложнением вычислительной процедуры нахождения оценок. Широкое распространение получили методы устранения мультиколлинеарности, основанные на замене исходного множества объясняющих переменных главными компонентами с последующим отбрасыванием тех из них, которые незначительны в уравнении регрессии. Близким к рассмотренному можно считать методы, основанные не на компонентном, а на факторном анализе, причем аналогия прослеживается как по достоинствам, так и по недостаткам.

В тех случаях, когда перечень объясняющих переменных регрессионной модели слишком велик, рекомендуется разделить их на группы высоко коррелированных и в каждой группе построить обобщающие факторы в виде главной компоненты, которые далее используются как новые переменные строящейся модели.

1.4.2 Доверительные интервалы для уравнения регрессии

Для проведения углубленного анализа уравнения регрессии прежде всего необходимо убедиться в том, что вектор ошибок Е распределен по нормальному закону. Для построения доверительных интервалов коэффициентов модели, предсказанных значений уравнения регрессии, среднего значения используются стандартные статистические распределения, требующие нормальности распределений.


1.4.3 Определение доверительного интервала для истинного значение уравнения регрессии

Определение доверительного интервала сводится к отысканию интервала, в котором с вероятностью

содержится истинное значение
, соответствующее некоторому опыту
из матрицы наблюдений
.

Другими словами, имеется интервал, в котором с заданной вероятностью находится линия регрессии.

Подставляя

в эмпирическое уравнение регрессии получим оценки
для каждого наблюдения
вида: