Файл: Методы оптимизации в статистических задачах управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 21.10.2024

Просмотров: 105

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

3. Специальные методы поиска экстремума

Рассмотрим некоторые другие методы поиска экстремума, которые связаны с линейными методами. Начнем с метода симплекспланирования, предложенного в 1962 г. [151].

В основе этого метода лежит построение и последовательное перемещение симплекса в п-мерном пространстве переменной х. Под симплексом п-мерного пространства понимается выпуклая правильная фигура, задаваемая системой п + 1 точек.

Алгоритм метода симплекс-планирования состоит в следующем. Задаемся системой п + 1 точек х°, х1, . . ., хп, образующих исход­ ный симплекс 5°, и вычисляем в этих точках значения функции F (X). Выбираем вершину симплекса, соответствующую максималь­ ному значению функции. Обозначим эту вершину хг. Строится

новая точка хг, которая получается зеркальным отражением точки хг от грани симплекса, лежащей против нее (рис. 35):

~ Г

1_

£ * 4

2

- /

2^

п

X

П

п

і—О

 

і=0

(=0

 

 

 

ІфГ

 

 

ІфГ

 

 

 

ІфГ

 

 

Точки X0, X1, . . . , хг~ , хг, хг+ , . . . , хп образуют новый симплекс. Вычисляем значение функции в хг. Возможны следую­ щие варианты:

1. Среди вершин нового симплекса максимум функции дости­

гается в некоторой точке, отличной от точки х . Тогда на этом за­ канчивается первая итерация и производится следующая итерация

сновым симплексом.

2.В новом симплексе максимум достигается в хг. Тогда воз­ вращаемся к исходному симплексу и очередной симплекс получаем отображением вершины, в которой значение функции максимально

среди оставшихся вершин. Если в п + 1 последовательном сим­ плексе какая-либо точка сохраняется, то вокруг этой точки строит­ ся новый симплекс с вдвое меньшим ребром.

Известны некоторые модификации метода, в которых симплекс может быть правильным или неправильным и в которых исполь­ зуются другие правила дробления симплекса.

Одним из правильных п-мерных симплексов с ребром, равным единице, и вершиной в начале координат является симплекс, за­ даваемый следующей матрицей:

0,

0, . . ,

Р,

я, . . .

5 = Я,

р , . . .

Л г

0

я

я

Я, я, • •

> р

Рис. 35. Схема метода с

плекс-планирования

 

 

7 *

99


 

каждая

строка которой

 

соответствует координатам

 

вершин. Параметры р и q

 

определяются

размерно­

 

стью пространства п:

 

Р

21^ 2” ^

 

 

Овражный метод мини­

 

мизации. В п. 1 гл. Ill бы­

 

ло показано, что линейные

Рис. 36. Овражный метод минимизации

методы

оптимизации ха­

 

рактеризуются

медленной

сходимостью при большом значении коэффициента обусловлен­ ности р для матрицы вторых производных минимизируемой функ­ ции. Такие функции часто называются «овражными», так как для случая двух переменных (п = 2) поверхность, изображающая по­ добные функции, имеет вид вытянутого оврага. Одним из методов ускорения линейных методов является овражный метод миними­ зации [20, 22], который сводится к следующему. Задаемся началь­ ным приближением х° (рис. 36) и градиентным или каким-либо другим линейным методом производим оптимизацию. Обычно через несколько итераций применение линейного метода становится мало­ эффективным, так как итерационная точка достигает «дна оврага». Тогда предлагается прекратить применение линейного метода. Конечную точку обозначим Л 0. Далее в окрестности точки х° на расстоянии, превышающем шаг линейного метода, выбирается точка X 1 и аналогичным образом производится оптимизация линей­ ным методом. Результирующую точку обозначим А г. Для овраж­ ных функций точки Л 0 и Л х обычно находятся на дне оврага. За­ тем по дну оврага по прямой, соединяющей А 0 и Л х, в сторону точки с меньшим значением функции делается шаг в точку х2. Размер шага обычно больше размера шага градиентного метода и выбирается экспериментально. Затем из точки х2 осуществляется спуск в точку А а путем очередного применения линейного градиент­ ного метода, и по линии, соединяющей точки Л х и Л 2, делается новый шаг по дну оврага в точку Xs.

При разумном выборе размера овражного шага применение описанного метода значительно снижает затраты машинного вре­ мени по сравнению с использованием чисто градиентных методов для минимизации овражных функций.

4.Квадратичные методы минимизации

Основная идея квадратичных методов минимизации состоит

вквадратичной аппроксимации минимизируемой функции F (х)

вокрестности итерационной точки х1 и выбор следующего при-

100


ближения xt+1 в качестве точки минимума квадратичного при­ ближения. По-видимому, исторически первым квадратичным ме­ тодом является метод Ньютона, в котором аппроксимация функции строится на основе разложения в ряд Тейлора:

/=1

 

+

4 - £

£

 

 

 

 

(*, - * ,') (*< -

 

■*9=F м

+

 

 

 

 

/=1

 

 

 

 

 

 

 

 

 

 

 

 

I

І Ѵ

ѵ і \ *

Ö F

( j c O

. 1

x

/

 

Y i \ * d2F (xl)

/

i \

=

(

i \

+ {x — x )

d'x

- f (

 

_ x ) —

 

(x —x)

g U

x),

где

rW (л:)

 

обозначает матрицу вторых производных функций

 

дх2

 

 

 

d2F(x)

I!

 

d2F(x)

 

 

 

 

 

 

F (x) с элементами

 

В

соответствии

с выше-

 

 

 

 

 

дх2

||г,

дх{ дх/

 

 

 

 

 

 

сказанным определим следующее приближение х‘+г как точку минимума квадратичной аппроксимации q (х1, х). Предполагая

 

 

 

d2F (х)

> получим

положительную определенность матрицы

х£+1 = X1

d^Fjx1)

\ ~ l

dF (xl)

(235)

дх2

)

дх

 

 

Сравнивая выражения (235) и (223), можно увидеть связь рас­ четных формул градиентных методов и метода Ньютона. Различие методов, с одной стороны, состоит в том, что в методе Ньютона отпадает проблема выбора шага, но, с другой стороны, требуется вычислять, а затем обращать матрицу вторых производных, что связано с значительной затратой труда. Заметим, что обратную матрицу для матрицы вторых производных рационально вычис­ лять по методу квадратного корня [14, 78], так как в процессе обращения матрицы таким способом одновременно производится

d2F (х)

проверка матрицы — на положительную определенность.

Осуществление этой проверки очень важно, так как соотношение (235) имеет смысл только для положительно определенных матриц.

В противном случае точка хг+1 может оказаться или точкой мак­ симума, или седловой точкой квадратичной аппроксимации q (х, X1).

В отличие от градиентных методов итерационная последова­ тельность, полученная при использовании метода Ньютона, не зависит от линейных (в частности, масштабных) преобразований

переменных. Так, если последовательность \х1) найдена при ми­ нимизации F (х), а последовательность {У1} — при минимизации

101


Ф (у) — F {Ах), где А — невырожденное преобразование, то из условия х° = Ау° следует равенство

X1 = Ау1.

(236)

Однако практически, если преобразование А близко к особен­ ному (I А I я« 0), то за счет ошибок округления вычисление

/ 32Ф (у) \ - i J й

\ ду^~)

будет сопровождаться погрешностями и равенство

(236) может нарушиться.

Естественно, что скорость сходимости метода Ньютона значи­ тельно выше скорости линейных методов. Так, если функция F (х) дважды непрерывно дифференцируема, выпукла и имеет точку минимума х+, то при выполнении некоторых других естественных условий метод Ньютона дает квадратичную скорость сходимости

[44], т. е.

X 1 у+ |2

F+1. У+I

где коэффициент у зависит от вида минимизируемой функции F (х). Очевидно, что для чисто квадратичных функций метод Ньютона дает точное решение за одну итерацию.

В то же время метод Ньютона, как правило, обладает более узкой областью сходимости, чем градиентные методы. Поэтому часто вначале минимизируют функцию одним из линейных методов, в процессе реализации которых время от времени производится

32F (X)

проверка матрицы вторых производных — на положитель­

ную определенность. При достижении положительной определен-

d2F (X)

ности матрицы —д^2— следующие итерации производятся по ме­

тоду Ньютона.

Существуют модификации метода Ньютона, направленные или на упрощение его реализации, или на расширение области сходи­

мости. Например,

в модифицированном методе Ньютона предла-

гается вычислять

( d2F (x)

1

 

 

 

точки л: =

0

1

 

 

только Для одной

г \

Таким образом, алгоритм метода имеет вид

 

 

 

 

,-+W

 

-

d2F(x»)

\- l

dF{xО

і = 1

2.

(237)

 

( ^

)

 

дх

 

 

 

 

 

 

 

 

 

 

 

В некоторых

 

случаях

производится

вычисление

( д*F (X)

\ -1

 

V дх2

)

один раз на несколько итераций.

 

 

 

 

 

 

Для расширения области сходимости метода Ньютона в работе

Л. В. Канторовича [43] предложен алгоритм

 

 

 

 

хі+і _ хі _ а

d2F (Д )

Г 1

dF (х‘)

1

0

( 238)

 

 

 

дх2

/

дх

• 1 ~

 

 

 

где параметр а

выбирается

в интервале 0 << а

 

1.

 

 

102


Наряду с этим был предложен алгоритм

[143]

 

= JT

сСіЕ +

d2F( x

0 \ - х

dF(x

О

t = 1. 2,

( 239)

öx2

5л:

где Е — единичная

матрица.

 

 

 

 

 

Доказано, что алгоритмы (237)—(239) сходятся со скоростью геометрической прогрессии, т. е. аналогично градиентному методу.

Перечисленные в настоящем параграфе методы являются ме­ тодами минимизации второго порядка, так как они предполагают

d2F (х)

использование матрицы — . Применение этих методов ока­

зывается рациональной только в случае, когда вычисление ма-

трицы d2F (х) не связано с большими трудностями, например,

когда известно аналитическое выражение функции F (х). Рассмотрим квадратичный метод минимизации, предложенный

Ф. Вольфом [152], в котором предполагается возможность вы­ числения значения функции и ее градиента в любой точке. Алго­ ритм метода состоит в следующем. Выбирается п + 1 базисная точка х°, X1, . . ., хп и в этих точках вычисляется градиент

dF (х°)

dF (лЛ)

 

dF (хп)

 

дх

дх

‘ ' ’

дх

 

Далее определяются параметры к 0,

. . ., кп

из условия

 

 

;=о

 

 

 

 

 

 

S

X, = 1.

 

(240)

 

 

і=0

 

 

 

 

По полученным значениям параметров определяется точка

 

 

хп+1 =

% кЛ .

 

(241)

 

 

 

/=о

 

 

После этого х"+1

вводится

в систему базисных

точек, а одна

из старых базисных точек (обычно в этой точке F (х) максимальна) выводится. Далее расчеты повторяются для полученной вновь системы базисных точек.

Нетрудно показать, что приведенный алгоритм за один шаг

решает задачу минимизации квадратичной формы вида

 

F(x) = ± ( x - a ) * Q ( x - a ) ,

(242)

где Q — симметричная положительно определенная матрица.

Действительно, система уравнений (240) для указанного случая имеет вид

£ ktQ(х{ — а) = 0;

£ к, = 1.

(243)

£=0

£=0

 

103