Смекни!
smekni.com

Градиентный метод первого порядка (стр. 6 из 11)

Таблица 1.2

Номер опыта фиктивный столбец Значения факторов в безразмерной системе координат Выход
U0 U1 U2 Un У
1 +1 +1 +1 +1 У1
2 +1 -1 +1 +1 У2
... ….
N +1 -1 -1 -1 УN

5. Приведём полную матрицу планирования (Табл. 1.3.):

Таблица 1.3

Номер

опыта

Значения факторов Выход
В натуральном масштабе В безразмернойсистеме координат
X1 X2 Xn U 0 U1 U2 Un Y
1 X11 X12 X1n +1 +1 +1 +1 Y1
2 X21 X22 X2n +1 -1 +1 +1 Y2
N XN1 X N2 XNn +1 -1 -1 -1 YN

Предложенный план эксперимента обладает следующими свойствами:

Свойство симметричности.


;

Свойство нормировки.

;

Свойство ортогональности.

, ( l
j , l,i = 1…k );

Следует отметить, что ортогональные планы полный факторный эксперимент ( для линейных моделей ) обладают также рототабельностью. Последнее предполагает равенство и минимальность дисперсий предсказанных значений выходной переменной для всех точек факторного пространства. По закону накопления ошибок для дисперсии предсказанных уравнением регрессии значений выходной переменной можно записать:

s2y= s2b0 + s2b1U12 + … + s2bnUn2

Дисперсии коэффициентов регрессии равны между собою, поэтому

s2y= s2bi

С учетом того, что

,

Где

- радиус сферы имеем

s2y= s2 bi

.

Отсюда ясно, что дисперсия предсказанного значения выходной переменной зависит только от радиуса сферы. Это свойство рототабельности эквивалентно независимости дисперсии выходной переменной от вращения координат в центре плана и оправдано при поиске оптимума градиентными методами. Интуитивно понятно, что исследователю удобно иметь дело с такой информацией, содержащейся в уравнении регрессии, которая равномерно «размазана» по сфере радиусом

. Действительно такое положение можно признать разумным, ибо с помощью уравнения регрессии будут предприниматься попытки предсказать положение ещё неизвестных участков факторного пространства. Равноценность этих участков в смысле ошибки предсказания, по-видимому, является необходимой.

Свойство ортогональности существенно облегчает процесс вычисления коэффициентов, так как корреляционная матрица (UТU)-1 становится диагональной, и коэффициенты будут равны 1/N;

6. С учетом свойства ортогональности можно вычислить вектор В коэффициентов регрессии:

Следовательно, любой коэффициент уравнения регрессии bj определяется скалярным произведением столбца Y на соответствующий столбец Uj, деленным на число опытов N в матрице планирования:


Вычислим коэффициенты регрессии линейного уравнения :

Если в рассмотрение ввести более полное уравнение регрессии с коэффициентами взаимодействия Р, то используя процедуру метода наименьших квадратов , получим:

.

Пользуясь планом, представленным в табл. 1.2, можно перечислить коэффициенты регрессии и записать в табл.1.4:

Y= Р0 + Р1U1 + Р2U2 + … + РnUn+ … +

+…+P13U1U3 + P23U2U3+…+ P123U1U2U3

Таблица 1.4

Номер опыта U0 U1 U2 Un
У
1 +1 +1 +1 +1 -1 +1 +1 У1
2 +1 -1 +1 +1 -1 -1 +1 У2
N +1 -1 -1 -1 -1 +1 +1 УN

P12, P23 - эффекты двойного взаимодействия, а P123 - эффекты тройного взаимодействия. Эффекты взаимодействия определяют аналогично линейным эффектам:

.

7. Проверка однородности дисперсии и значимости коэффициентов регрессии.

Если дополнительно поставить параллельные опыты, можно определить s2воспр - дисперсию воспроизводимости, проверить значимость коэффициентов регрессии, а при наличии степеней свободы – адекватность уравнения.

В связи с тем, что корреляционная матрица (U*U)-1 для спланированного эксперимента есть матрица диагональная

,

коэффициенты уравнения регрессии некоррелированы между собой. Значимость коэффициентов уравнения регрессии можно проверять для каждого коэффициента в отдельности, пользуясь критерием Стьюдента :

. Исключение из уравнения регрессии незначимого коэффициента не скажется на значениях остальных коэффициентов. При этом выборочные коэффициенты bj оказываются так называемыми несмешанными оценками для соответствующих генеральных коэффициентов βj:

bj

βj, т. е. величины коэффициентов уравнения регрессии характеризуют вклад каждого фактора в величину y.

Диагональные элементы корреляционной матрицы равны между собой, поэтому все коэффициенты уравнений

Y =

и Y = Р0 + Р1U1 + Р2U2 + … + РnUn+ … +

+ … +

oпределяются с одинаковой точностью:

sbj= s2воспр

8. Проверка адекватности уравнения

Проверка адекватности уравнения проводится по критерию Фишера:

Рассчитывается значение

F= s2ост/ s2воспр ; s2ост

,

где m - число значимых коэффициентов в уравнении регрессии.

2. После проведения полного факторного эксперимента определены коэффициенты регрессии

Тогда частные производные будут пропорциональны

.

3. Делая, с учетом последнего выражения, шаг в сторону, противоположную среднему, определяем новую точку

и опять проводим эксперимент.

4. Повторяем первые три шага, пока не приблизимся к точке экстремума. При приближении к точке экстремума алгоритм начинает работать плохо при близости к нулю частных производных, то есть линейная модель становится неадекватной и требует введения квадратичных членов.

По условию дано: