Файл: Растригин Л.А. Автоматная теория случайного поиска.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.06.2024

Просмотров: 165

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ВВЕДЕНИЕ

ю

характеризует предысторию поиска и определяет влия­ ние предыдущих шагов поиска на выбор JV-ro шага.

Вектор памяти WJV-I с точки зрения информации, по­ лученной на (N— 1)-м этапе поиска, корректируется в соответствии с алгоритмом самообучения

W f f = 4 f ( W f f _ b X w _ b

Х*<1>, . . . , ХдЛ-л-)).

(0.1.1.4)

При \У^ = 0 имеет

место независимый поиск.

Приме­

ром такого независимого поиска является поиск по методу градиента.

Для исследования и оценки эффективности поисковых процедур, для сопоставления различных алгоритмов по­ иска и для определения сходимости процесса поиска не­ обходимо задать ситуацию, в которой эти алгоритмы действуют, т. е. иметь модели.

Приведем некоторые модели функции качества, на ко­ торых в дальнейшем будут исследованы и сопоставлены алгоритмы поиска.

1. Линейная модель объекта является наиболее прос­ той из всех возможных. Она характеризуется линейной зависимостью показателя качества объекта от его управ­

ляемых

параметров:

 

 

п

 

Q(xu

...,хп) = Q & + 2 ai(Xi-Xio),

(0.1.15)

или, в векторной форме,

 

Q ( A , X ) = Q 0 + [ ( X - X o ) , A ] ,

(0.1.16)

где квадратными скобками выделено скалярное произве­ дение. Вектор градиента функции качества равен

grad Q(Xo) = ( а ь . . . , а„) = А ,

(0.1.17)

т. е. он предполагается постоянным в зоне поиска. Это означает, что функция качества является линейной в пре­ делах, определяемых смещением АХ=Х—Х0 .

Эта модель хорошо отражает локальные свойства объ­ екта вдали от экстремума или при достаточно малых шагах поиска АХ. Поэтому она применима для локаль­

ного анализа работы алгоритмов поиска.

 

 

2.

Стохастическая

модель

объекта

характеризуется

тем,

что в ней вектор

ситуации объекта

А = и ...,

ап),



ВВЕДЕНИЕ

11

т. е. градиент функции качества Q(X), меняется от од­ ного состояния к другому по некоторому вероятностному закону. В общем виде такая модель выражается форму­ лой

А ^ + 1 = Р ( А Д Х * ) ,

(0.1.18)

где F — случайный вектор, плотность распределения ко­ торого зависит от двух векторных аргументов — вектора ситуации А в предыдущей исходной точке и вектора смещения АХ.

В общем случае плотность распределения вектора си­ туации А на (iV+l) - M шаге зависит от вектора ситуаций на N предыдущих шагах AN,..., А] и от смещения AXN на N-u шаге, т. е.

р ( А л - + 1 / А * , . . . , А , , AXJV).

(0.1.19)

Такая модель объекта может быть использована для мо­ делирования весьма широкого класса объектов оптими­ зации. Объект в этом случае задается при помощи функ­ ции F(AN, AXjy) или плотности распределения (0.1.19).

Далее будем исследовать работу алгоритмов поиска на стохастической модели, ситуации которой принимают значения из конечного множества векторов

А = { А Ь А 2 , . . . , А„}.

(0.1.20)

Плотность распределения (0.1.19) в простейшем случае

можно задавать

в виде однородной цепи Маркова

 

 

6ц <*>

 

p(AN+l/AN,

AXW <4 ) ) =

(0.1.21)

 

 

6 , i ^

. . . 6™<*>

где i — номер

реализации вектора ДХя на ЛГ-м шаге

 

поиска (t'= 1,..., т);

 

v — число

направлений, которые может принимать

 

вектор

градиента.

 

§ 0.2. А Л Г О Р И Т М Ы С Л У Ч А Й Н О Г О П О И С К А

Алгоритмы случайного поиска характери­ зуются тем, что выбор пробных шагов Х ^ 1 ' , . . . , Х ^ ( т л \ а также рабочего смещения AXJV производится случайно


ВВЕДЕНИЕ

12

в соответствии с вероятностным распределением (0.1.11) и функцией решения (см. формулу (0.1.13)). Различают алгоритмы случайного поиска без самообучения и с са­ мообучением.

АЛГОРИТМ ПОИСКА БЕЗ САМООБУЧЕНИЯ

При работе алгоритмов поиска без само­ обучения не учитывается предыстория процесса поиска, т. е. W = 0 , и не используется выражение (0.1.14).

Среди алгоритмов поиска без самообучения можно условно выделить два класса алгоритмов: 1) алгоритмы

поиска с линейной тактикой и 2) алгоритмы

поиска с не­

линейной тактикой.

 

 

 

 

 

Алгоритм

с линейной

тактикой [4]

характеризуется

тем, что при неудачном шаге

(AQ'N^0)

делаются

проб­

ные шаги

в соответствии

с

распределением

(0.1.11), а

потом передается управление на выбор

AXJV в соответст­

вии с функцией решения

(0.1.13). При удачном

шаге

(AQ'JV<0)

пробные шаги

не делаются, а блок пробных

шагов сразу передает управление на блок функции реше­ ния, который определяет последующий как равный

предыдущему, т. е.

 

 

 

AXN=AXN^.

 

 

 

(0.2.1)

Примером алгоритма поиска с линейной тактикой

может

быть,

например,

следующий алгоритм:

 

 

Г AXN-i

при

AQN_1=Q(XN^)-Q(XN-2)<0;

N

X aS

 

при AQjv - i^O .

(0.2.2)

Алгоритм с

нелинейной

тактикой. При удачном

шаге

делаются пробные шаги в соответствии с

распределе­

нием (0.1.11),

а потом передается управление на выбор

А Х в соответствии с решающим правилом

(0.1.13). При

неудачном шаге пробные шаги не делаются,

а сразу уп­

равление передается на блок функции решения.

 

Для

некоторых

нелинейных алгоритмов

поиска

этот

шаг может быть равным предыдущему с противополож­ ным знаком, т. е.

AXjy— —AXJV_).

(0.2.3)


ВВЕДЕНИЕ

 

13

Ниже в основном будут

рассмотрены алгоритмы по­

иска с одним пробным шагом, совпадающим со смеще­

нием AXN.

алгоритма поиска с

нелинейной тактикой:

Пример

{

" З д х

" Р "

^ " - < ° п

;

(0.2.4)

1

— AXJY-I

при

Д ф л ч ^ О ,

 

 

где

 

 

 

 

 

 

A Q ^ _ I = Q ( X J V - i ) - Q ( X J v _ 2 ) ;

 

 

(0.2.5)

Х*_, = Х*_* + ДХ_,;

 

 

(0.2.6)

S — реализация случайного вектора,

равномерно

рас­

пределенного

на

единичной

гиперсфере;

3 =

=(h> • • • . I n ) ;

адлина смещения АХ:

c = | A X w | .

(0.2.7)

АЛГОРИТМ ПОИСКА С САМООБУЧЕНИЕМ

Валгоритмах поиска с самообучением

[6—9] вектор Ww изменяется по формуле (0.1.14) в зави­ симости от сделанного шага A X ^ - j и полученной инфор­ мации (опыта) AQJV-I- Ниже будут рассмотрены алго­ ритмы поиска с самообучением с одним пробным шагом, совпадающим с рабочим шагом AXjv-ь В этом случае алгоритм самообучения можно задать, например, при помощи следующей рекуррентной формулы:

W w = W w _ 1 - 6 s i g n A Q J f _ i ( X ) signAXw-,,

(0.2.8)

где б — параметр, характеризующий

скорость

обучения

(6>0);

A Q J V - I ( X ) определяется формулой (0.2.5);

sign АХ^_!= (sign А х И * - 1 ' , . . . , sign A*n <w-i>)

(0.2.9)

( A x j ( J V - 1 )

i-я координата вектора

AXjy-i).

 

Чтобы

устранить нежелательное

детерминирование

поиска, на изменение вектора накладывается

ограниче­

ние

 

 

 

| W | « f | / t t

 

(0.2.10)

( 0 < d < l ) .