Файл: Растригин Л.А. Автоматная теория случайного поиска.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.06.2024

Просмотров: 216

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ГЛАВА II

180

где ai и аг — направляющие косинусы градиентного век­ тора; ai 2 + a 2 2 = l - Видно, что при больших ./V MN[AQ] мало зависит от начальных вероятностей р^°К В пре­ дельном случае (Л7 -^оо) получаем

M[AQ] = hmMK{AQ]=~dai.

(2.2.22)

 

JV^OO

Т'2

 

Отметим,

что

максимальное

значение M[AQ] принимает

в случае,

если

«i = l , т. е. когда направление градиента

совпадает с координатной осью хх. Минимальное значе­

ние M[AQ] принимает при a i - > - L , т. е. когда направлеУ2

ние градиента стремится к направлению АХ*1' или АХ( 2 ) . Тогда

M[AQ]= ~ d.

 

(2.2.23)

Следовательно,

среднее приращение функции

качества

в зависимости от различного направления градиента из­ меняется в пределах

1

M[AQ]

1

(2.2.24)

2

d

}'2

 

Рассмотрим частный случай, когда d=\. Тогда из мат­ рицы (2.2.14), подставляя d=l, получаем следующую матрицу переходных вероятностей за N шагов для век­ тора W:

 

 

 

1 0

0 0

 

i4w (Wj/Wi)

=

0

1 0

0

(2.2.25)

0

1 0

0

 

 

 

 

 

 

 

1 0

0 0

 

Как

видно

из матрицы, вероятности перехода вектора

W из

одного

 

состояния

 

в другое не зависят от номера

шага

N. Состояния

1 и 2 матрицы (2.2.25) являются по­

глощающими.

 

Подставляя в (2.2.15) d=l,

получаем:

Н

(2.2.26)

р 2 ( Л ' ) = р 2 ( 0 ) + р <0).

'


ПОИСК С САМООБУЧЕНИЕМ

181

В этом случае распределение вектора W по сущест­ венным состояниям 1 и 2 не зависит от номера шага по­ иска N. Оно зависит лишь от начальных вероятностей Рг( 0 ) . В пределе при JV-voo получаем:

рх

=

lim р 1 ( л - ) = р 1 ( 0 ) + р 4 ( 0 ) .

 

 

 

 

iV-*-oo

 

 

(2.2.27)

р2

=

Н т р 2 ( л ' > =

/72 <°>+/7 3 ( 0 ) .

 

 

 

 

JV-*oo

цепь Маркова является

неэргодической.

В этом

случае

Если

d=l,

то в соответствии с формулой (2.2.21)

сред­

нее

приращение

функции качества на N-u шаге

поиска

не зависит от N и равно

 

 

M [ A Q ] = ^ - a 1 + ( p 1 ( ° ) + p 4 ( 0 ) - P 2 ( 0 , - P 3 < 0 ) ) ~ а 2 .

 

 

 

 

 

 

 

(2.2.28)

Дальше

рассмотрим особый случай, когда направление

градиента

оптимизируемой системы совпадает с

одной

из биссектрис, например с биссектрисой

АХ*1*, т. е. когда

ai = a 2 =l/y2 . Тогда по формуле (2.2.9) получаем:

 

AQO>=|gradQ|; AQ<2>: = AQ(3) = 0;

(2.2.29)

AQ(4) =

- | g r a d Q | .

 

 

Используя эти неравенства и формулу самообучения (2.2.4), запишем матрицу переходных вероятностей для вектора памяти W в следующем виде:

 

 

1

о

О

о

4 ( W / W ; )

=

<7n + <7i4

О

о

<7l2 + </l3

О

?11+<?14

о

 

 

 

 

 

О

О

<?12 + <?13

 

 

 

 

 

(2.2.30)

Переходы

из

одного состояния

в другое

показаны на

рис. 2.2.3 в виде

графа.

 

 

 

Из матрицы (2.2.30), используя формулу

Перрона, по­

лучаем матрицу

переходных

вероятностей

за yV шагов

для вектора

памяти W:

 

 

 


ГЛАВА II

182

A (W/W*) =

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

О

О

 

О

 

 

 

l - ( 9 l l + V l 4 ) j V

(qn + qn)N

 

О

 

О

 

 

l-(<7n + <7i4)*

 

О

(<7п + <714)я

 

О

 

 

О

 

0

 

 

 

 

1 - ( < 7 I 2 +

7 1 3 ) W

 

 

(?12

+

<71зГ

 

 

 

 

 

 

 

 

 

 

 

 

(2.2.31)

 

 

 

 

 

 

По этой матрице находим распреде­

 

 

 

 

 

 

ление вектора

W на JV-M шаге по­

 

 

 

 

 

 

иска:

 

 

 

 

 

 

 

 

 

 

 

 

Р 1 = 1 - ( 9 1 1 + 4 1 4 № ° ) - ( < ? П +

 

 

 

 

 

 

 

+ < 7 1 4 ) Р З ( 0 ) - ( < ? . 2 + 9 . З ) Л Г Р 4 ( 0 ) ;

Рис.

2.2.3. Граф

веро­

 

p 2 { N ) =

(<7п + < 7 и № 0 ) ;

 

ятностей перехода для

 

 

вектора

памяти

(на­

 

Pz{N)-(qn

+

qu)NPsw;

 

 

правление

градиента

 

 

 

совпадает

с

биссек­

 

 

 

 

 

 

 

трисой

первого

квад­

 

Р 4 < * > = ( < 7 . 2 +

< 7 1 3 Г Р 4 < 0 ) ,

 

 

ранта) .

 

 

 

 

 

 

 

 

 

 

(2.2.32)

где

 

 

 

 

 

 

 

 

 

 

 

 

<7n +

<7i4=

Y

( L + D 2 ) '

<7i2 + <7i3= у

( l - ^ 2 ) -

 

 

Рассмотрим

случай,

когда

выполняется

условие 0 <

<d<l.

 

Тогда

при предельном

переходе N-^oo

получаем

 

 

JV^OO

 

0

при

t = 2,

 

 

 

 

(2.2.33)

 

 

 

 

 

 

 

= 2,3, 4.

 

 

 

 

В этом случае цепь Маркова

является

эргодической и в

пределе

вектор W с вероятностью 1 принимает

значение

W b

т. е. система обучается идеально. Среднее

прираще­

ние

функции

качества

на N-м шаге

поиска

равно

(2.2.34)



ПОИСК С САМООБУЧЕНИЕМ

183

 

 

В пределе при N-^oo

получим

 

M[AQ] = lim МK[AQ]

= d.

(2.2.35)

Из формулы (2.2.35)

видно, что в случае, когда

oci = l/"|/2,.

результат почти вдвое превышает приращение функции качества. Отметим, что такой случай маловероятен и поэтому результат (2.2.35) имеет узко локальный ха­ рактер.

Дальше рассмотрим

частный случай, когда

 

d = L

Тогда из матрицы (2.2.31) получаем следующую

мат­

рицу переходных вероятностей за N шагов:

 

 

 

1 0

0

0

 

 

^ ( W / W i ) =

0

1 0

0

(2.2.36)

0

0

1 0

 

 

 

 

1 0

0

0

 

 

Из этой матрицы видно, что состояния 1, 2, 3 являются поглощающими, а состояние 4 — несущественным. В пре­ деле при Л/->-оо получаем:

p1 = limpi(J V )=p1 <°)+p4 (0).

JV->oo

p2 = Hm Р2т = Рг{0)\

(2.2.37>

p3 = lim ръ ( J V ) = p 3 ( 0 )

N-*oc

j04 = Hm p 4 ( ] V ) =0.

JV->oo

Таким образом, установлено, что для d=\ цепь Мар­ кова также является неэргодической.

2. Случай я = 2; 6 = 4 - . Выше рассмотрен простейший

К

случай покоординатного обучения в процессе случайного поиска, когда имеется всего два уровня памяти для каж­ дой координаты. Обычно количество уровней памяти больше двух. В этом случае вектор может находиться в одном из (2&+1)2 состояний, где k — целое число. Эти состояния пронумерованы и показаны на рис. 2.2.4.