Файл: Растригин Л.А. Автоматная теория случайного поиска.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 19.06.2024

Просмотров: 174

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ВВЕДЕНИЕ

 

32

 

 

 

 

 

 

 

 

 

 

Вероятности

переходов

системы

из одного

состояния

в другое за N шагов определяются

формулой

 

 

р<л-)=(я ')(л-)р«».

 

 

 

 

 

(0.4.34)

Здесь (я') <*>

 

JV-Я степень транспонированной мат-

Р<0)

 

рицы я';

 

 

 

 

 

 

 

 

вектор

 

начальных

вероятностей

 

 

 

 

(0.4.33);

 

 

 

 

 

 

 

P W = ( / 7 1 W , . . . , ^ m W ) ,

 

 

 

 

 

 

(0.4.35)

где р :(-V)

_

вероятность

того,

что система

находится

 

 

в г-м состоянии после iV шагов.

 

 

Элементы

pa(N)

матрицы

я ( Л Г )

называются

переход­

ными вероятностями за N шагов. Их можно определить

по формуле Перрона [37]

 

 

 

 

 

 

 

AN) = 2

 

 

 

1

т.,

—1

 

 

 

 

 

 

 

( m v - l ) !

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

( v = l , , . . , r ) .

(0.4.36)

Обозначим

через

>w характеристические числа

матрицы

я, т. е. корни характеристического

полинома матрицы я,

который задается

определителем

 

 

 

 

 

 

Х-ри

 

Р\2

 

 

— Рт

 

 

 

 

-Рп

 

Х — р22

 

 

Р2т

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(0.4.37)

 

рт\

-Рт.2

 

 

 

 

 

 

 

В формуле

(0.4.36)

 

 

 

 

 

 

 

nji(%)

алгебраическое

дополнение

элемента

 

 

 

определителя я ( ^ ) , стоящего

на

пересе­

mv

 

чении его /-й строки и г-го столбца;

— кратность

 

v-ro

 

характеристического

 

 

 

числа К;

 

 

 

 

 

 

 

£ ) A m v - i [ o / 0 ] производная

по

переменной

К порядка

 

 

 

mv1; подстановка lk = Xv

производится

 

 

 

после дифференцирования;

 

 

 


ВВЕДЕНИЕ

зз

Особенно простой вид формула Перрона (0.4.36) при­ обретает в случае, когда все характеристические числа матрицы я (0.4.37) имеют кратность, равную единице, т. е. когда

mi = m 2 = . . . =mr=

1.

 

 

 

 

 

(0.4.39)

В этом случае г п и формула

Перрона

имеет вид

 

 

 

 

m

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

 

 

 

,0.4.40)

 

 

 

 

 

 

( г , / = 1 , 2 , . . . , п ) .

 

 

 

 

Если существует предел

 

 

 

 

 

 

 

 

1\трцт=рц^,

 

 

 

 

 

 

 

 

(0.4.41)

то

вероятности

ptj ( o o )

 

называются

предельными

переход­

ными вероятностями. Имея вектор начальных вероят­

ностей

Р<°)= ( p i < 0 ) , . . . , p m ( 0 )

) ,

можно получить предель-

ные вероятности p i ( o o

)

( t = l , . . . , m )

различных

состояний

цепи Маркова по формулам

 

 

 

 

 

 

 

 

Pi(°°)= 2 Р)тРц(г-

 

 

 

 

 

 

 

(0.4.42)

Если

предельные

 

вероятности

цепи Маркова Рг( о о )

(1—1,...,

т) не зависят от

ее

начальных

вероятностей

рг( 0 ) (i~

1, • • •, tn), то

такая цепь Маркова

называется

эргодической. Легко видеть, что цепь Маркова

является

эргодической,

если

вероятности

рц{<х,)

для

любого ин­

декса / не зависят от индекса i,

т. е. если все строки

мат­

рицы

я ( о о ) = ||Pij( o o ) II

предельных

переходных

вероятнос­

тей одинаковы. Для того чтобы

цепь

Маркова

была

эргодической, необходимо и достаточно, чтобы одним из

значений

простого корня характеристического

полинома

ее

матрицы

переходных

вероятностей

 

была

единица,

а модули всех других корней

этого

полинома

были

строго меньше единицы.

 

 

 

 

 

 

 

 

Для случая эргодической конечной цепи Маркова пре­ дельные переходные вероятности определяются форму­ лами

3 — 2014


ВВЕДЕНИЕ

34

 

Pa <<*>) = Kji (Я)

(0.4.43)

( t ' , / = l , . . . , m ) .

Приведем еще другой признак, по которому определя­ ется эргодичность цепи Маркова. Этот признак следую­

щий. Если начиная с некоторого N^1

все элементы

N-й

степени

матрицы переходных вероятностей я положи­

тельны, то цепь Маркова является

эргодической

и ее

предельные вероятности равны

I

 

р/°°>=

lim Pij ( J V ) .

(0.4.44)

На практике использование формул Перрона или воз­ ведение переходных матриц в N-ю степень для цепей Маркова со многими состояниями является сложной задачей. Поэтому более целесообразно предельные ве­ роятности рг( о о ) находить как решение следующей сис­ темы алгебраических уравнений [38]:

Р = Ря,

(0.4.45)

где я

матрица (0.4.31);

 

Р

вектор предельных вероятностей; Р=(ри

рт).

Формула (0.4.45) имеет место для эргодических цепей Маркова.

Г Л А В А I

ПОИСК БЕЗ САМООБУЧЕНИЯ

 

§ 1.1. С Л У Ч А Й Н Ы Й

п о и с к

 

К А К В Е Р О Я Т Н О С Т Н Ы Й А В Т О М А Т

 

Рассмотрим задачу

минимизации скаляр­

ной функции многих переменных

 

Q=Q(xux2,...

п)

(1.1.1)

методами случайного поиска как

задачу функциониро­

вания вероятностного автомата в некоторой среде [39]. Автоматом в данном случае является алгоритм случай­ ного поиска, а среда, в которой действует этот автомат, представляет собой объект оптимизации. Среда в общем с.лучае предполагается стохастической, т. е. на одно и то же воздействие X она каждый раз отзывается некото­ рым случайным образом.

Одним из примеров такого взаимодействия автомата и

среды

может

служить

г о м е о с т а т

Э ш б и

[40], пред­

ставляющий собой динамическую

систему

 

 

d\J

F(V,X,

Е ) ,

 

 

 

 

 

(1.1.2)

dt

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Состояние

системы (1.1.2)

описывается

вектором

U =

= ( и ь

U2,...,

ит)

и определяется как вектором

управляе­

мых

параметров

гомеостата Х = и

х 2 , . . . , хп), так и

вектором неуправляемых

параметров

Е = (si, е2,...,

е п ) ,

характеризующим

стохастические

свойства среды.

 

Управление

состоянием

U гомеостата

осуществляется

путем воздействия на его параметры хих2,...

п,

при­

чем целью

управления

является

выведение

гомеостата

в заданное

состояние U*, т. е. минимизация

показателя

Q = | U - U * | .

 

 

 

 

 

 

 

(1.1.3)

з*

 

 

 

 

 

 

 

 

 

 

 


ГЛАВА I

36

Управление параметрами гомеостата производится методом проб и ошибок, который сводится, по сути дела, к случайному перебору элементов некоторого допусти­ мого множества управлений {X} с последующей провер­ кой их эффективности и реакции на каждое случайное управление. При этом четко разграничиваются два вида реакций. Отрицательная реакция R~ возникает в ответ на управление, которое не приводит к выполнению по­ ставленных целей. Эта реакция в соответствии с алго­

ритмом гомеостата

вызывает очередную

случайную

пробу управления.

Положительная реакция

R+ следует

за достижением цели управления. Она сохраняет в объ­ екте то управление, которое привело к положительному результату. Алгоритм такого поведения гомеостата можно записать в виде

 

 

 

(1.1.4)

где Xt- управление

на i-м шаге работы

гомеостата;

Е •— оператор

случайного управления

из

класса

допустимых управлений, т. е. оператор

случай­

ного определения параметров гомеостата. Легко заметить, что такой алгоритм имеет целесообраз­ ное поведение, направленное на поиск и сохранение в системе состояния, которое обеспечивает положитель­ ную реакцию R+.

Итак, смысл случайного поиска по рассмотренному алгоритму (в данном случае —• слепого поиска) заклю­ чается в том, чтобы случайно перебирать значения пара­ метров системы до тех пор, пока не будут найдены такие их варианты, которые обеспечивают выполнение определенных заданных условий. В случае гомеостата — это наличие устойчивого состояния системы в заданных границах.

Такое поведение' гомеостата, по-видимому, наиболее целесообразно в том случае, когда управляющее устройство не имеет никаких сведений о структуре объ­ екта, т. е. последний представляет собой «черный ящик».

Естественно задать вопрос: всегда ли можно найти ус­ ловия, при которых объект удовлетворяет целям управ­ ления, т. е. можно ли случайным перебором допустимых


ПОИСК БЕЗ САМООБУЧЕНИЯ

 

37

 

 

 

 

 

 

управлении

всегда

наверняка

достигать

цели:

Разобьем множество возможных

реализаций

парамет­

ров

объекта

на два подмножества

{ Х ( 0

) } и {X*}, в

первое

из

которых

объединены

значения

параметров,

приводя-

' щие к отрицательной реакции, во второе — вызывающие положительную реакцию. Тогда решение задачи управ­

ления будет

заключаться в случайном отыскании хотя

бы одного элемента второго множества

за

конечное

число

шагов

поиска (под шагом поиска

здесь

понима­

ется

однократный случайный выбор параметров объек­

та) .

Для этого необходимо, чтобы оба

подмножества

имели одинаковую мощность, т. е. чтобы при случайном переборе элементов множества всех возможных управ­

лений

(под управлением

здесь и далее подразумевается

определение параметров

объекта хи х%,...

п)

предста­

вители

подмножества

{X*} встречались

не

слишком

редко. Тогда вероятность выбора одного из элементов этого подмножества будет конечна. Следовательно, про­ цесс завершится в конечное время и система обяза­ тельно придет в состояние, удовлетворяющее целям управления.

Представим работу гомеостата как функционирование некоторого вероятностного автомата, действующего в случайной среде [41]. Тогда гомеостат следует «рас­ слоить» на среду и управляющее устройство УУ (см. рис. 1.1.1). Под средой подразумевается объект управле­ ния, реализующий зависимость (1.1.2), а управляющее устройство работает в соответствии с алгоритмом слу­

чайного

поиска

(1.1.4). В этом

случае отрицательная ре­

акция

 

R~,

эквивалентная

Q>q

= const,

соответствует

штрафу,

а

положительная

реакция

R+(Q^.q)

не-

штрафу [39].

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

У

 

Алгоритм

случайно-

 

.

^

Среда

 

 

 

 

 

 

го поиска (1.1.4), pea-

 

(f~J\

(объект)

 

 

лизуемый

управляю­

 

 

 

 

 

 

 

щим

устройством,

яв­

 

 

 

 

 

 

 

ляется

вероятностным

 

 

 

 

 

 

 

автоматом, выход

кото­

 

 

 

Поиск

 

 

 

рого X изменяется в со­

 

 

 

 

 

 

 

 

 

(УУ)

 

 

 

ответствии со входом Q.

 

 

 

 

 

 

 

 

 

 

 

 

 

Стохастическая

матри­

Рис.

1.1.1. Блок-схема

гомеостатиче-

ца,

характеризующая

ского

управления.