Файл: Растригин Л.А. Автоматная теория случайного поиска.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.06.2024

Просмотров: 214

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ГЛАВА II

 

170

 

 

 

 

 

 

 

 

Далее построим

матрицы

Q*j и S* для случая, когда

в ы х о д ы Д Х а в т о м а т а

д е т е р м и н и р о в а н н ы е ,

т. е. когда любому состоянию WW автомата

соответствует

один

определенный

его выход

A X W .

Очевидно, что соот­

ветствующий

состоянию WW выход

ДХ^>

будет

зависеть

от того, как пронумерованы состояния

W<»)

и

вы­

ходы

A X W . Рассмотрим для наглядности двумерный

слу­

чай

( п = 2 ) .

Пусть

координата

вектора Д Х принимает

значения A J Q = + 1

—• когда

координата

Wi вектора

W

находится в состояниях от d до ^ , и Axi= — 1 — когда

координата Wi находится в состояниях от - ^ до —а. Представим номер состояния автомата i в виде формулы

i = ( p - l ) 2 f e + Y,

(2.1.111)

где у и р принимают значения

натуральных чисел от 1

до 2k: у = 1, • • •, 2k; ^=1,... ,2k.

При такой записи номера

состояния автомата значение переменной у указывает в

сетке состояний WW номер горизонтальной

прямой, а

значение переменной

р

указывает

номер

вертикальной

прямой.

 

 

 

 

 

 

 

 

 

 

Пронумеруем

выходы

ДХ(->>

автомата (их всего 4 для

я = 2)

в следующем

порядке:

 

 

 

 

 

Д Х < 1 ) = ( 1 ,

1);

ДХ<2 > = ( 1 , - 1 ) ;

Д Х < з ) = ( - 1 ,

1);

 

 

ДХ«)= ( — 1 ,

- 1 ) .

 

 

 

(2.1.112)

Находим,

при

каких

значениях

вектора

WW

(t' =

= 1,

(2k)2)

вектор

Д Х принимает указанные

ниже

значения. Если в формуле (2.1.111)

i подсчитано

 

 

 

 

 

 

 

 

 

 

 

(2.1.113)

если

при

 

 

 

 

 

 

 

 

(2.1.114)

если

при

 

 

 

 

 

 

 

 

(2.1.115)


ПОИСК С САМООБУЧЕНИЕМ

171

 

L

n J то AX = AXW. (2.1.1 16)

Теперь для рассматриваемого случая можно построить матрицу Qij (2.1.13). Используя формулы (2.1.113) — (2.1.116), находим, что она имеет следующий блочный вид:

 

Qi

 

 

 

 

 

 

 

Qij —

Qi

 

 

 

 

 

 

(2.1.117)

Q2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Q2

 

 

 

 

 

 

 

где блоки Qi и Q2

— прямоугольные

матрицы 4x2k

10

0 0

 

 

0 0

10

 

10

0 0

Q 2

=

0 0

10

(2.1.118)

0

10

0

0 0

0 1

 

 

 

0

10

0

 

 

0 0

0 1

 

Матрица 5* штрафов автомата по состояниям WW на­ ходится по формуле (2.1.27) с учетом формул (2.1.117) и (2.1.118):

 

5*,

0

0 •••

0

0

0 •••

0

 

 

0

5*i 0

-

0

0

0 ...

0

 

5* =

0

0

0

• S*i

0

0 - •

0

(2.1.119)

 

0

0

0 • • 0 S*2

0 •• 0

 

 

о

0

0

- 0

 

о

о... S*

 


ГЛАВА II

 

172

 

 

 

 

 

 

где блоки S*i и

S*2

являются диагональными

матри­

цами

si

О О

•О

0

0

• О

 

 

 

 

О

s{ О

• О

0

0

• О

 

S*,=

О О О

•si

0

0

• о

 

 

О О О

•О

s 2

О

• о

 

 

о

о 0 ••• 0

0

0 ••• s 2

 

 

 

к

 

 

к

 

(2.1.120)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s 3

О О

•0

0

0-

• о

 

 

О

s 3 О

•О

0

0-

• о

 

5*0 =

О О О

s 3

О О

 

 

 

О О О

О

s 4

О

 

 

 

О О О

•О

0

0

S4

 

Здесь Sj

( / = 1 , • • •, 4)

— вероятности штрафов

действия

ДХ<я автомата, определяемые

формулой (2.1.10).

 

§2.2. С В О Й С Т В А П О К О О Р Д И Н А Т Н О Г О

С А М О О Б У Ч Е Н И Я П Р И О П Т И М И З А Ц И И В О Т С У Т С Т В И Е П О М Е Х

В этом параграфе исследуем алгоритм по­ координатного самообучения при случайном поиске для случая, когда на оптимизируемую функцию не наклады­ вается помеха (а = 0).

Покоординатное самообучение в процессе случайного поиска вводится в виде изменения вероятностных свойств двоичного выбора движения системы вдоль каждой из координат [9]. Пусть вероятность выбора шага вдоль по-



ПОИСК С САМООБУЧЕНИЕМ

173

ложительного направления оси xt на N-ы шаге опреде­ ляется кусочно-линейной функцией параметра wf.

если Wi^. — 1;

(l + Wi), если — 1 ^ Ш г ^ 1 ;

(2.2.1)

если Iz^LWi.

Для удобства введем л-мерное пространство {W}, коорди­ наты которого образуются величинами Wi (t = l , л) . В этом пространстве вектор памяти W определяет на­ правление преимущественного движения системы. В процессе одного шага поиска система смещается в прост­ ранстве параметров вдоль вектора

АХ = Х я - Х к - ь

'

(2.2.2>

модуль которого предполагается постоянным и равным единице: |ДХ| = 1. Координаты этого вектора Дх, (£ = = 1, . . . , л) определяются следующим образом:

1

 

—— с вероятностью pf,

 

У/г

(2.2.3)

 

\=г с вероятностью 1

 

}'п

 

Будем рассматривать следующий алгоритм покоорди­ натного самообучения для случая максимизации:

WiW+» = WiW) + 8 sign

 

(AQN\XiW

 

(2.2.4)

где 6 —-шаг

изменения

параметра

хюи определяющий

 

интенсивность

обучения ( б > 0 ) ;

 

AQJV

приращение

функции

качества на А/-м шаге

 

поиска;

AQN = QN — QN-I-

 

 

При

самообучении возможно

Шг^>1, что приведет к

нежелательному «детерминированию»

поиска.

Поэтому

имеет

смысл

изменение

величин

Wi ограничить

следую­

щими

пределами:

 

 

 

 

 

 

 

- d ,

если

Wi^—d;

 

 

 

 

Wi, если

—d<,Wi<.d;

 

 

(2.2.5)

 

d,

если

d^Wi.