Смекни!
smekni.com

Модель распределения ресурсов (стр. 2 из 9)

Если переменные управления

принимают дискретные значения, то модель ДП называется дискретной. Если же указанные переменные изменяются непрерывно, то модель ДП называется непрерывной. В зависимости от числа параметров состояний (s) и числа управляющих переменных на каждом шаге (r) различают одномерные и многомерные модели ДП. Число шагов в задаче может быть либо конечным, либо бесконечным.

Динамическое программирование применяется при оптимизации как детерминированных, так и стохастических процессов.

В некоторых задачах, решаемых методом ДП, процесс управления естественно разбивается на шаги. Например, при распределении на несколько лет ресурсов деятельности предприятия шагом естественно считать временной период; при распределении средств между n предприятиями номером шага естественно считать номер очередного предприятия. В других задачах разбиение на шаги вводится искусственно. Например, непрерывный управляемый процесс можно рассматривать как дискретный, условно разбив его на некоторые временные отрезки — шаги. Исходя из условий каждой конкретной задачи, длину шага выбирают таким образом, чтобы на каждом шаге получить простую задачу оптимизации и обеспечить требуемую точность вычислений.

1.2 Принцип оптимальности. Уравнение Беллмана

Метод динамического программирования состоит в том, что оптимальное управление строится постепенно, шаг за шагом. На каждом шаге оптимизируется управление только этого шага. Вместе с тем на каждом шаге управление выбирается с учетом последствий, так как управление, оптимизирующее целевую функцию только для данного шага, может привести к неоптимальному эффекту всего процесса. Управление на каждом шаге должно быть оптимальным с точки зрения процесса в целом.

Иллюстрацией к сказанному выше может служить задача о выборе кратчайшего пути для перехода из точки A в точку B, если маршрут должен пройти через некоторые пункты. На рис. 2 эти пункты обозначены кружками, а соединяющие их дороги — отрезками, рядом с которыми проставлены соответствующие расстояния.


Рисунок 2

С точки зрения интересов оптимизации только каждого ближайшего шага — выбора кратчайшего пути из данной точки в соседнюю — следует двигаться по маршруту, проходящему через точки

. Длина этого маршрута равна 34. Такой путь из A в B не является кратчайшим. Например, маршрут, проходящий через точки
, имеет меньшую длину, равную 25. Решив эту задачу, можно убедиться, что второй путь также не является оптимальным.

Приведенный пример многошаговой операции показывает, что управление на каждом шаге надо выбирать с учетом его последствий на предстоящих шагах. Это основное правило ДП, сформулированное Р. Беллманом, называется принципом оптимальности.

Оптимальное управление обладает таким свойством, что каково бы ни было начальное состояние на любом шаге и управление, выбранное на этом шаге, последующие управления должны выбираться оптимальными относительно состояния, к которому придет система в конце данного шага.

Использование этого принципа гарантирует, что управление, выбранное на любом шаге, является не локально лучшим, а лучшим с точки зрения процесса в целом.

Так, если система в начале k-го шага находится в состоянии

, и мы выбираем произвольное управление
, то система придет в новое состояние
, и дальнейшие управления
должны выбираться оптимальными относительно состояния
. Последнее означает, что при этих управлениях максимизируется показатель эффективности на последующих до конца процесса шагах k+1,...,n, т. е. величина
. Показатель, характеризующий суммарную эффективность от данного k-го до последнего п-го шага, будем обозначать через
, т.е.
. Задача оптимизации процесса, начиная с k-го до последнего n-го шага (рис. 3), похожа на исходную при начальном состоянии системы
, управлении
и показателе эффективности
[аналогично (1.2)]. Выбрав оптимальное управление
на оставшихся п—k+l шагах, получим величину
, которая зависит только от
, т. е.

. (1.4)

Назовем величину

условным максимумом. Если теперь мы выберем на k-м шаге некоторое произвольное управление
, то система придет в состояние
. Согласно принципу оптимальности, какое бы
мы ни выбрали, на последующих шагах управление
должно выбираться так, чтобы показатель эффективности
достигал максимального значения, равного
. Остается выбрать управление
. Его нельзя выбирать из условия локальной максимизации показателя эффективности на данном k-м шаге, лишь бы получить
. Такой подход был бы недальновидным, поскольку от выбора
зависит новое состояние
, а от последнего—максимально возможная эффективность, которая может быть достигнута в дальнейшем, т. е. величина
. Поэтому необходимо выбирать управление
так, чтобы оно в совокупности с оптимальным управлением на последующих шагах (начиная с (k+1)-го) приводило бы к общему максимуму показателя эффективности на п—k+l шагах, начиная с k-го до конца. Это положение в аналитической форме можно записать в виде следующего соотношения:

, (1.5)

получившего название основного функционального уравнения ДП, или уравнения Беллмана. Схематически соотношение (1.5) иллюстрируется на рис. 3.

Рисунок 3

Из уравнения (1.5) может быть получена функция

, если известна функция
; аналогично можно получить
, если найдена
и т. д., пока не будет определена величина
, представляющая по определению максимальное значение показателя эффективности процесса в целом:
.

Соотношения (1.5) для определения последовательности функций

через
получили название основных рекуррентных уравнений Беллмана.