Файл: Методы оптимизации в статистических задачах управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 21.10.2024

Просмотров: 112

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

где параметр р > О характеризует размер шага. Значение шага выбирается экспериментально. В алгоритме (274) существенное значение имеет выпуклость функций Ft (х), 1 = 0, 1, 2, . . ., т. В общем случае метод может не иметь сходимости. Иногда удается задачу с невыуклыми функциями Ft (х) свести к задаче с выпук­ лыми функциями путем эквивалентной замены исходных огра­ ничений:

 

Ft (х) < 0 ,

і = 1 , 2 , . . . , т

 

системой

ограничений

 

 

 

 

 

 

 

Ф,- (F i (*))

о,

 

если для

скалярной функции

ф,- (у)

удовлетворяются условия:

Фі (У)• < 0 при у <

0;

[у) =

0 при у = 0; фг (у) >

0 при у >

> 0, і — 1, 2, . . . .

т.

Функции ф,- {у) выбираются

из условия

выпуклости Fi {х) = ф; (F{ (х)).

Другой вариант градиентного метода был предложен Удзава [115]. В этом методе используется условие оптимальности (271), исходя из которого можно определять оптимальное решение как

решение максиминной задачи:

 

L (X (А,), Л) =

min L (X, А);

 

X

L (х А+), А+) = max L (х (А,), А) = max min L (х, А);

1 > 0

% > 0 X

х+ = х(А+).

Метод Удзава удобно применять, когда с помощью аналити­ ческих методов нетрудно вычислить минимум значения L (х, А) по X в функции параметра А, т. е. функцию

L (X (А), А) = min L (х, А).

X

Значение А+ определяется как предел решения системы диф­ ференциальных уравнений:

~jj~ — 1 ( Ц д1(хдх : Л ) = 1 ( Ч р і (*

(*•));

X/ (і0) > 0,

/ = 1, 2 , . . ., т;

 

А+ =

lim А (t).

 

 

t~>со

 

Соответствующая итерационная процедура имеет вид:

А/+1 = max (0, Xl,+1 + pF; (* (А*))};

Х°і^0, j =

1, 2, . . ., от;

(275)

L (х (АО, АО = min L (х, АО;

 

X

 

А+ = Нт АО х+ = х (А+).

і-> со

117


Реализация метода по указанной процедуре оказывается слож­ нее, чем по процедуре (274), так как в методе Удзава на каждом шаге необходимо решать задачу максимизации функции L (х, К1) по х. Однако этот метод не требует условия выпуклости функций F{ (х) (і = 0, 1, 2, . . ., т). Аналогичный метод предлагался [84].

Следует обратить внимание, что в работе Удзава [115] доказы­ вается сходимость дискретных методов только при достаточно малом значении параметра^.

Метод Эрроу-Гурвица и метод Удзава являются по существу градиентными методами определения седловой точки для функции Лагранжа L (х, X).

В работе Розена [144] предлагается метод проектирования градиентов, который обобщает градиентный метод на случай минимизации функций при наличии ограничений. При изложении метода мы будем следовать в основном работам [67, 72]. Рассмо­ трим вначале случай ограничения типа равенства. Пусть требуется минимизировать F0 (х):

F0 (х+) =

min F0 (х),

 

где область D задана системой нелинейных соотношений

 

Фг (х) = 0; і = 1,

2, . . ., т; т < п.

(276)

Зададимся точкой начального приближения х°, причем вполне возможно, что ф (х°) ф 0. Обозначим через 6л; приращение аргу­ мента. Линейная часть приращения функций F0 (х) и <р (х) будет иметь вид:

F0(х® +

6х) - F0(х°)« £

6х/;

(х° +

6х) — ф, (х°)«* ^

д^ х ) Ьх/\

 

/=1

'

і = 1, 2 , . . ., т.

Наложим ограничения на квадрат модуля вектора 6х и опреде­ лим вектор 6х из условия минимума линейного приращения функ­ ции F о (х) при ограничении в виде заданной линейной части при­ ращения вектора ф:

 

 

А8х = 8ф,

(277)

где через

А

обозначена матрица [т, п]

с элементами {А)ц =

_

_ ß

качестве величины бф можно выбрать —ф (х°) или

118


—УФ (л:0), где 0 < у < 1 . Итак, будем определять вектор бх из условия

{ д Г ~ )

8х==тт>

 

(бл;)* бх = с;

_

Лбх =

бф.

 

Применяя метод множителей Лагранжа, получим решение этой экстремальной задачи в виде

бх = б]Х + б2х =

t (Е - А* (АА*)-1 А) -dF°d(f

) ■+

 

+ А* (АА*)-1бф,

(278)

6jX = t(E

А*(АА*)~1А) дР(,д{х0) ;

(279)

б2х = А* (АА*)-1 бф;

(280)

Е — единичная матрица.

Параметр t в выражении (278) определяется из условия фикси­ рованной длины вектора бх:

(бх)* бх = с.

Приращение бхх называется градиентной составляющей при­ ращения, б2х — компенсационной составляющей приращения. Эти названия объясняются тем, что справедливы равенства:

y46jX = 0, Лб2х = бф.

Пользуясь выражениями (279) и (280), легко показать, что составляющие приращения бх взаимно ортогональны:

2х)* бхх = (бф)* (АА*)-1At (Е — А* (АА*)-1 A)

=

- (бф)* t [ (A4*)-1 А (АА*)-1 АА* (АА*)-1 A]

= 0.

1 Приращение б2х направлено на уменьшение расхождения в выполнении ограничений (276), а бхх смещает точку в сторону уменьшения функции F 0 (х). Наличие составляющей б2х может привести к увеличению значения функции Е 0 при конечных зна­ чениях параметра t, так что в общем случае метод не является монотонным.

В процессе выполнения итерации необходимо задаваться зна­ чениями t и бф. Вначале рекомендуется [72] при t = 0 прибли­ зиться к ограничению ф (х) = 0, не добиваясь точного его выпол-

119


нения, если функция ф (х) нелинейная, так как в последующих итерациях это равенство будет нарушаться из-за криволиней­ ное™ поверхности ф (х) = 0. Затем совершается несколько шагов при бф = 0 в направлении проекции градиента на плоскость, ка­ сательную к ограничениям. Параметр t может выбираться по ана­ логии с методом наискорейшего спуска. По-видимому, здесь может оказаться также рациональным использование метода сопряжен­ ных градиентов, реализация которого практически не сложнее реализации метода наискорейшего спуска.

Если наряду с ограничениями типа равенства (276) имеются ограничения в виде системы неравенств

Fs (х) < 0 , s = 1, 2........../,

(281)

то реализация метода проектирования градиентов несколько усложняется. В этом случае, задавшись, как и прежде, точкой начального приближения х°, вычисляем градиентную состав­ ляющую 8^ :

бх( X) = {Е А* (ЛЛ*)-1 А)

.

Далее по очереди анализируем все I ограничений (281). Для

этого вычисляем

 

 

бF.

dFs (*°)

 

dxk &ixk-

 

 

к=1

 

Если бFs < 0, то в результате итерации

точка х1, вероятно,

будет стремиться приблизиться или еще более углубиться в область Ф3 (х) < 0. Поэтому на этом шаге итерации ограничение s будем пока игнорировать. Если бFs > 0, то, исключая s-e ограничение из системы (281), необходимо подключить к системе (276) огра­

ничение

Fs (х) = 0.

После того как будут проанализированы все неравенства, необходимо сделать шаг, ориентируясь на новую дополненную систему ограничений (276) без учета оставшихся ограничений типа неравенства.

Аналогичным образом проводятся следующие итерации. Не­ сколько последних итераций нужно осуществлять, ориентируясь только на выполнение всех требуемых ограничений (276) и (281).

8. Метод возможных направлений

Метод проектирования градиентов хорошо приспособлен для ограничений типа равенств, но его реализация усложняется при наличии ограничений в виде неравенств. В 1959 г. Г. Збйтендейком был разработан метод возможных направлений, который^близок

120


по идее к градиентному методу, но лучше приспособлен к случаю наличия ограничений типа равенства [36]. Независимо этот метод был разработан С. И. Зуховицким [37].

Метод возможных направлений будет изложен применительно к канонической форме задачи нелинейного программирования, которая состоит в минимизации линейной функции

Fo(x)= Іі PiXi

(282)

J=l

 

при наличии системы нелинейных ограничений

Ft (х) < О, і = 1, 2, . . ., т.

(283)

Нетрудно показать, что общая задача нелинейного программи­ рования (255), (256) легко может быть сведена к канонической форме (282), (283). Действительно, задача (255), (256) эквива­ лентна задаче

 

 

 

= min хп+и

(284)

 

 

 

xClDi

 

где

через х

обозначен (п +

1)-мерный вектор

с координатами

X =

(х, хп+1),

а область D x задается системой

ограничений

 

 

Ft (х) < 0,

і — 1 , 2 , . . ., т;

 

 

 

F0(х) —х„+1 < 0.

 

 

Пусть решение экстремальной задачи (284),

(285) есть точка

х+ = (х+, Х++\)- Тогда точка х+ есть решение задачи (255), (256).

Действительно, предположим противное, т. е. что существует

точка

Х + + а Dтакая, что F0 (х++) F0 (^+)- В этом случае

для точки Х + + = (х++, F0 (х++))

будут выполнены всеусловия

(285),

и так как

 

 

F0 (X++) <

F0 (х+),

то точка х+ не есть оптимальная для задачи (284), (285). Это про­

тиворечит исходному предположению об оптимальности х+ для задачи (284), (285). Противоречие доказывает факт оптималь­ ности х+ для задачи (255), (256).

Совершенно аналогичным способом доказывается, что если х+

.есть решение задачи (255),

(256), то точка х+ = (х+, F0 (х+))

есть решение задачи (284),

(285).

Но задача (284), (285) является частным случаем задачи в ка­ нонической форме (282), (283). Следовательно, любая задача нелинейного программирования может быть сведена к канониче­ ской форме путем увеличения размерности пространства незави­ симой переменной на единицу.

Основной алгоритм метода возможных направлений состоит в следующем. Задаемся точкой начального приближения х°,

121