Смекни!
smekni.com

Эконометрика 10 (стр. 1 из 5)

Эконометрия – наука, изучающая количественные взаимосвязи экономических объектов и процессов при помощи математических и статистических методов и моделей. Основная задача эконометрии – построение количественно определенных экономико-математических моделей, разработка методов определения их параметров по статистическим данным и анализ их свойств. Наиболее часто используемым математическим аппаратом решения задач данного класса служат методы корреляционно-регрессионного анализа.

1. Основные понятия корреляционно-регрессионного анализа

Понятие корреляции появилось в середине XIX века в работах английских статистиков Ф. Гальтона и К. Пирсона. Этот термин произошел от латинского "correlatio" - соотношение, взаимосвязь. Понятие регрессии (латинское "regressio" - движение назад) также введено Ф. Гальтоном, который, изучая связь между ростом родителей и их детей, обнаружил явление "регрессии к среднему" - рост детей очень высоких родителей имел тенденцию быть ближе к средней величине.

Теория и методы корреляционного анализа используются для выявления связи между случайными переменными и оценки ее тесноты.

Основной задачей регрессионного анализа является установление формы и изучение зависимости между переменными.

В общем случае две величины могут быть связаны функциональной зависимостью, либо зависимостью другого рода, называемой статистической, либо быть независимыми.

Статистической называется зависимость, при которой изменение одной из величин влечет изменение распределения другой.

Статистическая зависимость, при которой изменение одной из величин влечет изменение среднего значения другой, называется корреляционной.

Корреляционные зависимости занимают промежуточное положение между функциональной зависимостью и полной независимостью переменных.

Между величинами, характеризующими экономические явления, в большинстве случаев существуют зависимости, отличные от функциональных. Действительно, в экономике закономерности не проявляются также точно и неизменно, как, например, в физике, химии или астрономии.

Пусть, например, мы рассматриваем зависимость величины Y от величины x – y(x).

Невозможность выявления строгой связи между двумя переменными объясняется тем, что значение зависимой переменной Y определяется не только значением переменной x, но и другими (неконтролируемыми или неучтенными) факторами, а также тем, что измерение значений переменных неизбежно сопровождается некоторыми случайными ошибками.

Вследствие этого корреляционный анализ широко используется при установлении взаимосвязи экономических показателей.

Итак, если с увеличением x значение зависимой переменной Y в среднем увеличивается, то такая зависимость называется прямой или положительной.

Если среднее значение Y при увеличении x уменьшается, имеет место отрицательная или обратная корреляция.

Если с изменением x значения Y в среднем не изменяются, то говорят, что корреляция – нулевая.

Часто при исследовании взаимосвязи между какими-либо показателями, представляют изучаемый объект в виде так называемого "черного (кибернетического) ящика".

Самый простой случай – изучение связи между одной переменной x, которую называют фактором (входной переменной, независимой переменной), и переменной Y, которую называют откликом (реакцией, зависимой переменной). Ситуации соответствует рисунок 6.1.

В более общем случае итогом функционирования системы является целый набор результирующих величин Ys (

). При этом значения откликов Ys определяются, с одной стороны, совокупностью факторов xj (
), а, с другой стороны, набором возмущений (случайных, неконтролируемых факторов) xвi (
). Такую ситуацию иллюстрирует рисунок 6.2.


Рисунок 6.1 – Представление исследуемой
системы в виде "черного ящика"
(один фактор, один отклик)


Рисунок 6.2 – Представление исследуемой
системы в виде "черного ящика"
(общий случай)

Собственно говоря, на протяжении столетий ученые (особенно, естествоиспытатели) используют подобные приемы, т.е. наблюдают, что произойдет с явлением, процессом (с откликом Y), если изменять значения влияющих на процесс факторов (переменных x).

Корреляционным полем называется множество точек {Xi, Yi} на плоскости XY (рисунки 6.3 - 6.4).


Рисунок 6.3 – Пример корреляционного поля
(положительная корреляция)


Рисунок 6.4 – Пример корреляционного поля
(отрицательная корреляция)

Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет положительный угол наклона ( / ), то имеет место положительная корреляция (пример подобной ситуации можно видеть на рисунке 6.3).

Если точки корреляционного поля образуют эллипс, главная диагональ которого имеет отрицательный угол наклона ( \ ), то имеет место отрицательная корреляция (пример изображен на рисунке 6.4).

Если же в расположении точек нет какой-либо закономерности, то говорят, что в этом случае наблюдается нулевая корреляция.

2. Линейная парная регрессия

Связь зависимой переменной с одной или несколькими независимыми переменными описывается с помощью уравнения регрессии:

= f(x1, x2, ..., xm).

Это уравнение показывает, каково будет в среднем значение y, если переменные x примут конкретные значения.

Если независимая переменная одна, то регрессия называется парной.

Построение уравнения регрессии включает два этапа:

1) определение вида зависимости (этап спецификации);

2) определение коэффициентов регрессии (этап идентификации).

Предположим, на этапе спецификации установлено, что между величинами x и y существует линейная зависимость. Реальные значения y будут отличаться от этой теоретической зависимости.

В общем случае линейное уравнение связи двух переменных, учитывающее случайные отклонения, можно представить в виде:

y =

+
x +
,
(6.1)

где

– отклонение от теоретически предполагаемого значения;

и
- неизвестные параметры (коэффициенты регрессии).

В уравнении (6.1) можно выделить две части:

 систематическую,

=
+
x, где
характеризует некоторое среднее значение y для данного значения x;

 случайную (

).

Коэффициенты

и
описывают вид зависимости для генеральной совокупности. Так как при выполнении подобных исследований всегда имеют дело с выборочной совокупностью, то истинные значения параметров
и
являются неизвестными, и мы можем говорить лишь об их оценках. Обозначим эти оценки, соответственно, а и b, тогда уравнение регрессии с оцененными параметрами будет иметь вид:

i = a + bxi,
(6.2)

где n - объем выборки.

Обозначим через ei отклонение реального значения отклика yi от теоретически рассчитанного по уравнению

i.

Параметры a и b уравнения регрессии чаще всего оцениваются с помощью метода наименьших квадратов (МНК).

Суть его состоит в том, чтобы зная положение точек на плоскости XY, так провести линию регрессии, чтобы сумма квадратов отклонений

этих точек от проведенной прямой вдоль оси OY была минимальной.