Смекни!
smekni.com

Нелинейные регрессии (стр. 2 из 2)


Рис.2.3.2

Типовые функции регрессии Mathcad. Для простых типовых формул аппроксимации предусмотрен ряд функций регрессии, в которых параметры функций подбираются программой Mathcad самостоятельно. К ним относятся следующие функции:

-


expfit(X,Y,S) – возвращает вектор, содержащий коэффициенты a, b и c экспоненциальной функции y(x) = a·exp(b·x) +c. В вектор S вводятся начальные значения коэффициентов a, b и c первого приближения. Для ориентировки по форме аппроксимационных функций и задания соответствующих начальных значений коэффициентов на рисунках слева приводится вид функций при постоянных значениях коэффициентов a и c.



-


lgsfit(X,Y,S) – то же, для выражения y(x) = a/(1+c·exp(b·x)).


- pwrfit(X,Y,S) – то же, для выражения y(x) = a·xb+c.

§§- sinfit(X,Y,S) – то же, для выражения y(x) = a·sin(x+b) +c. Подбирает коэффициенты для синусоидальной функции регрессии. Рисунок синусоиды общеизвестен.

- logfit(X,Y) – то же, для выражения y(x) =a·ln(x+b) +c. Задания начального приближения не требуется.

§§- medfit(X,Y) – то же, для выражения y(x) = a+b·x, т.е. для функции линейной регрессии. Задания начального приближения также не требуется. График – прямая линия.

На рис.2.3.3 приведен пример реализации синусоидальной регрессии модельного массива данных по базовой синусоиде в сопоставлении с зональной регрессией полиномом второй степени. Как можно видеть из сопоставления методов по среднеквадратическим приближения к базовой кривой и к исходным данным, известность функции математического ожидания для статистических данных с ее использованием в качестве базовой для функции регрессии дает возможность с более высокой точностью определять параметры регрессии в целом по всей совокупности данных, хотя при этом кривая регрессии не отражает локальных особенностей фактических отсчетов данной реализации. Это имеет место и для всех других методов с заданием функций регрессии.

Рис.2.3.3

4. Сглаживание данных

Сглаживание данных, как искаженных помехами, так и статистических по своей природе, также можно считать частным случаем регрессии без определения символьной формы ее функции, а потому может выполняться более простыми методами. В Mathcad для сглаживания применяются следующие функции:

supsmooth(X,Y) – возвращает вектор сглаженных данных Y с использованием линейного сглаживания методом наименьших квадратов по k-ближайших отсчетов с адаптивным выбором значения k с учетом динамики изменения данных. Значения вектора Х должны идти в порядке возрастания.

ksmooth(X,Y,b) – вычисляет вектор сглаженных данных на основе распределения Гаусса. Параметр b задает ширину окна сглаживания и должен быть в несколько раз больше интервала между отсчетами по оси х.

medsmooth(Y,b) - вычисляет вектор сглаженных данных по методу скользящей медианы с шириной окна b, которое должно быть нечетным числом.

Сопоставление методов сглаживания приведено на рис.2.4.1 Как можно видеть на этом рисунке, качество сглаживания функциями supsmooth(X,Y) и ksmooth(X,Y,b) практически идентично (при соответствующем выборе параметра b). Медианный способ уступает по своим возможностям двум другим. Можно заметить также, что на концевых точках интервала задания данных качество сглаживания ухудшается, особенно в медианном способе, который вообще не может выполнять свои функции на концевых интервалах длиной b/2.

Рис.2.4.1

5. Предсказание зависимостей

Функция Mathcad

predict(Y,n,K), где n – степень полинома аппроксимации вектора равномерно распределенных данных Y, позволяет вычислить вектор К точек предсказания (экстраполяции) поведения произвольного сигнала за пределами его задания (по возрастанию координат х). Предсказание тем точнее, чем более гладкую форму имеет заданный сигнал. Пример использования функции приведен на рис.2.5 1 для гладкой и статистически зашумленной сигнальной кривой. Степень аппроксимирующего полинома определяет глубину использования входных данных и может быть достаточно небольшой для гладких и монотонных сигналов. Ошибка прогнозирования увеличивается по мере удаления от заданных данных.

Рис.2.5 1.

Литература

1. Дьяконов В.П. Вейвлеты. От теории к практике. – М.: СОЛОН-Р, 2002. – 448 с.

2. Корн Г., Корн Е. Справочник по математике для научных работников и инженеров. – М.: Наука, 1984.

3. Эконометрика Под ред.И. И. Елисеевой 2002г.

4.А. А. Цыплаков, "Некоторые эконометрические методы. Метод максимального правдоподобия в эконометрии", ЭФ НГУ, 1997.

5. Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А. А.

Эконометрия. - Новосибирск: Издательство СО РАН, 2005. - 744с.

6.В.П. Носко "Эконометрика" (Введение в регрессионный анализ временных рядов) Москва 2002

7. Лекции "Анализ временных рядов" Г.Г. Канторовича (Высшая школа экономики, ГУ-ВШЭ) Опубликовано в "Экономическом журнале ВШЭ" Том.6 (2002), №1,2,3,4 и Том.7 (2003), №1