Файл: Цирлин, А. М. Основы оптимального управления конспект лекций.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 23.10.2024

Просмотров: 71

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

§ 4. Методы поиска максимума функции нескольких переменных

Часто мы не знаем аналитического выражения максимизируемой фун.-.ции и не мояем поэтому воспользоваться необходимыми усло­ виями ее максимума, Для сложных функций и большого числа, пе­ ременных уравнения, следующие ив неооходимых условий, в ряде олучаев очень трудно решить. Если имеется возможность для каждого конкретного значения переменных получить значение фун­ кции, то для нахоадения ее максимума могут быть использованы поисковые методы. Смысл всех этих методов заключается в том, что по определенному правилу выбирается последовательность

( вначенай

У

такая, что значение функции для Х'-н

больше или

равно

значению функции для <Х^ . 'Гак как

функция предполагается ограниченной, то такая Последователь­ ность ее значений стремится к пределу. В зависимости от при­ нятого алгоритма и выбора начальной точки втим пределом может

быть локальный или абсолютный

максимум

(

*

) .

 

Методам поиска максимума функций многих переменных посвя­

щено огромное количество работ.

 

 

 

 

Здесь{

в очень конспективной

форме рассмотрим

несколько

алго>

ритмов

поиска.

 

 

 

 

 

4 . 1

. Метод

градиента

 

 

 

 

 

Градйентбм

называют вектор

в пространстве JC

,

проекции

которого на

оси J ^ j , ^ ' 2 -ч

Р 8 * н ы

соответственно

.

 

 

 

 

 

 

ЪХ


3t

Найдем, ваприивр, градиент функции

з точке l V t ='Л^*2 = I • Проекции градиента

 

Вектор градиенте

показан

на

р и с Л . 1 . Скороотъ роота функ­

ции

j£(XJ

в точке

С 1,1

J

вдоль оои J^j вдвое

превыша­

ет

скорость

ее

роста

вдоль

оои У^.

Модуль градиента

опреде­

лится через

его

проекции обычный

способом

 

В рассмотренном примере

Величина модуля градиента показывав? скорость роста функ­ ции, а его ааправлоане соответствует направлению наиболее бы­ строго возрастания функции в окрестности то? точки, где внчаоляется градиент. Если функция непрерывна, дифференцируема ярн

всех

допуотииыхУ

,

то в каждой ее точке^кроме точек стацио­

нарности, градиент

отличен

от нуля. Двигаясь

по

градиенту

о*

некоторой

начальной

точки

У

, мы можем

быть уверены,

чгс

значения

функции

J -

по керб движения будут воераотагь.

На атом основании может быть предложен следующий алгорийй

организации минимизирующей

последовательности

( р и о Л Л , а ) .

I .

В произвольной

допустимой

точке

делают.пробные

шаги по каждой из переменных и находят проекции градиента в точке Уи как отношения &(Х,4+


 

 

32

 

Яелают рабочий шаг в направлении градиента, переходя в точ­

ку

о

координавами

или

в

векторной форие

Здесь

^

"

величина

рабочего

шага.

 

 

 

 

8.

Так

продолжается

до тех

пор, пока

не

станет равным

нуле. Так

как

градиент

в каждой

точке

иаеет

в общем случае

своё"

направление,

то нельзя

по градиенту,

найденному в

точке

 

идти

слишком

далеко.

С

другой

стороны, при

малом

значении

потребуется очень много шагов для выхода в экстремальную точку.

Практически для

выбора шага

используют следующие сообра­

жения; сначала

~£. выбирается

произвольно, если окажется, что в

точке «У^ направление градиента существенно отличается от направ­

ления в начальной

точке,

то

шаг ~£

уменьшают, если

отличие век­

торов

по направлению

мало,

то увеличивают. Об угле

между

Ч J

^ Хц)

и

У J-

(

X.t)

можно

судить по величине

Здесь в числителе стоит скалярное произведение векторов, а в зна­ менателе - произведение их модулей. Чем меньше шаг, тем меньше

величина

с*/ , а

К = Ceiol

ближе

к единице. Обычно JC стремят--

.ся сделать равным

0,6 * 0,8,

увеличивая

по мере

приближения к

акотремуму.

 

 

 

 

 

 

4.2.

Метод наискорейшего

подъема

 

 

 

Этот метод отличается от метода

градиента тем,

что шаг

в

нем выбирается переменным в каждом

такте

алгоритма. Причем

выби-


33.

рается так, чтобы,

двигаясь

вдоль

градиента,

получить

в точ­

к е ^ j

локальный

максимум функции вдоль градиента,

найденно­

го в

точке

У!ц

(рис . 4 . 1,б) . Во

всем же остальном

(пробные

ваги,

определение

градиента)

этот

метод

совпадает с

предыдущим,

3 случае,

когда

поверхности

равного уровня J-

)

предотавг

аяют собой эллипсы, метод наискорейшего спуска приводит к

иаксимуну

за число

шагов, равное

числу

переменных.

 

 

|)айдем составляющие градиента в точке-

.

координаты

следующей

точки

 

 

 

 

 

 

 

-Хг/

=

°

*

 

• '

 

 

 

 

{ ч

л

)

(ункция

J.{

 

 

) зависит

от

величины Ту на первом шаге

шиска

 

 

 

 

 

 

 

 

 

 

 

 

 

(еперь

нужно

найти

,

при

котором

функция

максимальна

 

и

[одставить

это

число

в

(ЧА).

Когда

функция

J^-

аналитически

в задана,

та

 

же процедура

проводится

поисковым

методом

-

дви-

[аются по найденному направлению градиента наленбкими шагами,

[онтролируя величину

^{

У({

) после каждого такого шага, до

их пор, пока функция не отанет уменьшаться. В этой точке

ровь находят ^fJ-(

J O

и

т . д .


4.3.Метод покоординатного подъема

(Гаусса - Зайделя) .

Б методе наискорейшего подъема число вычислений по сравнению о градиентным методом сокращено аа счет того, что пробные шаги, нужные для определения градиента делаютоя реже. В рассматривае­

мом же методе число пробных шагов оокращено еще более.

 

 

Последовательность

поиска

такова

( р и с

 

4.2):

 

 

 

 

1.

В произвольной допустимой

точке

Jfw

меняют одну ив пере­

менных (назовем

ее

У^

) ,

о

тем

чтобы

определить

энак

^

2.

Двигаются

вдоль

оси J / j ,

оставляя

все

другие составляю­

щие У

неизменными, в

направлении роста

^

до

тех

пор,

пока

функция не начнет

уменьшаться.

 

 

 

 

 

 

 

 

3.

В этой точке

фиксируют Уг

 

и повторяют

операции

п.1

по от­

ношению, к переменной^/£

и

т , д

»

 

 

 

 

 

 

 

Перебрав все переменные, вновь возвращаптоя к

У г.

'

 

Так продолжается до тех пор, пока изменение любой иэ перемен*

ных не

будет приводить

к уменьшению J-fa)

.

 

 

 

 

4.4.Общий недостаток поисковых методов заключается в том,

что движение из некоторой промежуточной точки У^ к предпола­ гаемому максимуму определяется поведением функции в окрестности этой точки. Поетому в многоакотренальных задачах зги методы могут привести к локальному, а не абсолютному макоииуму.

Упомянем коротко о некоторых приемах, позволяющих обойти эту

трудность за счет увеличения

трудоемкости вычислеш^

I . Скавзрование: покрытие

области допустимых значений аргу­

мента Сеткой с вычислением функции в узлах сетки. При этом опре­ деляется область притяжения глобального максимума, в которой и выбирают первое приближение для поискового алгоритма.