Файл: Методы оптимизации в статистических задачах управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 21.10.2024

Просмотров: 108

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

 

 

 

/

 

 

Подставляя

выражение (334) в формулу

(331),

получим:

M

Si-1

« N - l

e ^ V ^ + ' )

8дг_,+1

 

[m

 

 

 

V f {xN~l+l) QN~lf (xN^ + l) + 02' e N - ‘ f (xN~ l+ l) f (x"-‘'+1) Ѳ"-' \ 1

П * " “ <+1) Qif- t f ( xif- t+ 1) + o 2)

 

 

Qn

1[(x) 8n_1^ 1

 

S t - i m N - i _|_

 

 

w + a2’

 

xm£in A4

 

 

Vf*

(x ) QN - l f

 

D

 

 

 

 

 

Ѳ ^ - ‘ / (л;) /*

(* )

9 w - ( =

5; ( m ^ , Ѳ"-г).

(335)

f W

0 ^ f W

+

o2

 

 

 

 

Система уравнений (335) и (330) представляет собой рекур­ рентные соотношения, с помощью которых можно последовательно определить все функции St (т, Ѳ), начиная с (т, Ѳ), и точки проведения каждого k-vo эксперимента в зависимости от стати­ стических характеристик тк~1, Ѳ*-1 (k = 1, 2, . . N).

Основная трудность в вычислении, возникающая при реше­ нии задачи указанным способом, состоит в необходимости на каждом шаге решать задачу максимизации по ^ и запоминать систему функции S(. (т, Ѳ).

Анализируя систему рекуррентных соотношений (335), (330), можно увидеть, что задача выбора оптимальных точек наблюде­

ния

X1 эквивалента

[101]

следующей

задаче стохастического

оптимального

управления:

 

 

 

 

 

 

 

 

т1+х= т1+ Апг‘ — т1

 

ѲѴ (*г+1) 6і+г

 

 

 

1f f

(хі+:) Ѳ1 f

(xi+l) ■

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ѲН-1=

0<'

Ѳ'1 f

(хх+х) f* ( х

^ 1)

б '1

(336)

 

 

 

 

 

 

Г ( / + х)0Ч(х‘+х) + о2'

 

где m°,

0° — заданные

величины.

управление xi+1^D ,

і = 0,

Требуется

выбрать

оптимальное

1,

. . .,

N

1

как

функцию

т1,

Ѳ1'

из

условия минимума

М [гф (mN, QN),

где

6,-+і (г =

0,

1, . . ., N — 1) — система

неза­

висимых центрированных нормально распределенных чисел с еди­ ничной дисперсией.

Таким образом, показано, что задача выбора оптимальных точек измерений сводится к задаче решения системы рекуррент­ ных соотношений (335) или к решению эквивалентной задачи стохастического оптимального управления (336).

В настоящем параграфе был рассмотрен случай, когда число экспериментов под оптимизируемой системой фиксировано и равно N. Не представляет большого труда вывести аналогичные соотношения для случая, когда число экспериментов случайно или является функцией гарантированного значения критерия S.

146



14. Пример построения оптимальной последовательной процедуры определения экстремума функции

Рассмотрим пример выбора точек проведения экспериментов. Пусть имеется два тела, веса которых сг и с2 случайны, рас­ пределены по нормальному закону и имеют следующие параме­

тры распределения: ml, ml, Ѳ?і, Ѳ?2, Ѳ22. Имеется возможность производить дополнительные взвешивания тел с целью уточне­ ния значений веса. Требуется определить последовательность проведения взвешиваний из условия максимума среднего веса выбранного тела, если разрешено провести всего N взвешиваний.

Поставленная задача может приобрести больший практиче­ ский интерес, если весам тел поставить в соответствие размеры месторождений, а операциям взвешивания — процедуру дораз­ ведки.

Рассматриваемая задача является частным случаем задачи предыдущего параграфа. Максимизация производится на двух­ точечном множестве D = {1, 2}.

Функция

F (х) = c j t (х) + с2/ 2 (*),

где f x (л:) и / 2 (х) задаются следующим образом:

h (О = 1, fi (2) = 0;

М 1) = 0 , / а (2) = 1.

Пусть ошибка взвешивания тела 1 имеет дисперсию о!,

атела II — а\.

Врассматриваемом случае

ф (т^, т1?, Ѳи, ЭЙ, Ѳ22) = max {mf, т Л = 5 о ( т , Ѳ).

Используя соотношения (335) для і — I, определим S x {mN~l ,

0ЛГ-1):

S l (mN~1, Ѳ^-1) — max/Vf Гшах {пц +

m2 A/n^-1}"], (337)

*€ {1,2}

 

где

 

ѲѴ (x) at.+1

 

Am1

 

V f (X) & Ң х ) + о 2 (х)

Учитывая то, что 8k — центрированная случайная величина, преобразуем выражение (337) следующим образом:

J V - 1

зіѴ-1 ^ _

max M [m2

1 +

1 ■

Si (т'

ѳ*

 

 

 

 

*<={!; 2}

 

 

l~ max \rni~1

ЛГ—1

■Ami~l -

Aт%~\

0)] =

■m2

 

10*

147


= т?

1+ птах AI [max {mf

1—

 

 

*C{1; 2}

 

 

- rri2~l + Am?-1 - Am?-1,

0}].

( 338)

Анализируя соотношение (338), нетрудно увидеть, что точка

xN, максимизирующая

функцию «Sx (mN~l ,

Ѳ^-1),

не зависит

от mN~l и определяется однозначно Ѳ^-1. Причем максимум достигается при условии максимума дисперсии случайной вели­ чины Дш^-1 — Аm g - 1. Совершенно аналогично можно полу­

чить выражение для функции 5 3 (mN~2, Ѳ^-2):

S2 (mN~2, Ѳ'ѵ- 2) = max М [т?~2+

лг<=(1; 2)

+Ат ?-2+ Af [max {т?-2т ?-2 +

+Ат ?-1 — Аm g-1+ Ат?~2— Аmg~2, 0)j] —

=m g-2-f- M [max {m?~2m g-2-f

-(- Am ?-1— Am g-1 -j- Am?~2— Am g-2, 0)J.

Как и при нахождении 5 Х, точка xN л , максимизирующая S2, определяется матрицей Ѳ^-2 , причем максимум достигается при условии максимума дисперсии случайной величины

Am g -1 Am g-1 Am?-2 Amg-2.

Проводя далее аналогичные рассуждения, можно показать, что оптимальные точки проведения эксперимента х1, х2, . . ., xN могут быть получены из условия максимума дисперсии случай­ ной величины

■ A m ^ — Amg-f- A m ^ - 1 — Amg-1+ • • • + Am\— А m\.

Таким образом, задача выбора оптимальных точек экспери­ ментов свелась к выбору оптимального управления в следующей детерминированной задаче:

Ѳ 7 ( * г+1)/* ( * * + * ) Ѳ*

f (х1+1) Ѳ17 (* і+ 1 ) + а2 (X)

(339)

Требуется выбрать последовательность точек х1 из условия

максимума параметра DN. Характерной особенностью этой задачи является неоднозначность решения, которая обусловлена тем,

что параметр DN определяется только числом точек х1, при кото­ рых X1 = 1, но не зависит от последовательности чередования

148


точек x*l = 1 и xl = 2. Однако, исследуя оптимальную за­ дачу (339), можно показать, что одно из оптимальных решений будет получено, если на каждом k-м шаге выбирать точку наблю­ дения хк из условия максимума величины

/*(х )Ѳ * -Ѵ (* ) + о2 (х) '

Это свойство дает достаточно простой способ определения опти­ мальной точки наблюдения хк.

Такому способу выбора точки хк соответствует следующее толкование. На каждом шаге точка наблюдения хк выбирается так же, как она выбиралась бы, если k-e измерение было бы последним. В этом случае, как было показано выше, хк опреде­ ляется из условия максимума дисперсии

D [Ат*-1 — Ат%~г] =

efrVt(*)+ ѳ?2-у2(X) - ві гЧі (*) -

ѳ2ѴѴ2 (*)

~ /і W ѲіГ1 +

2/j (х) / 2 (X) Ѳ^-1 + ѲІ^ІІ(х) + с2 ( X ) '

В рассмотренном

примере оптимальная

стратегия такова,

что планирование каждого эксперимента производится в пред­ положении, что данный эксперимент последний. Это обстоятель­ ство существенно упростило реализацию оптимального правила.

Приведенный пример позволяет надеяться, что и в общей задаче (335) предположение о том, что настоящий эксперимент является последним, не приведет к большой потере эффективности метода. В соответствии с этим предлагается следующий квази­ оптимальный алгоритм минимизации функции в постановке задачи (335):

1. На основании априорных статистических характеристик вектора с определяем I «перспективных» точек, т. е. точек, подо­ зреваемых на экстремум (I — целочисленный параметр метода). Выбор перспективных точек z1, z2, . . ., zl производится эвристи­ ческим или каким-либо формализованным методом. Например, возможен метод случайного сканирования, т. е. замена случай­ ного вектора с детерминированным вектором математического

ожидания

т°.

Перспективные

точки вводятся для

упрощения

алгоритма.

С

их

помощью

процедуру

минимизации равен­

ства (335)

по

вектору х £ D предлагается

свести к

процедуре

минимизации на дискретном множестве z1,

z2, . . .,

zl.

2. Выбираем точку эксперимента на первом шаге из условия

минимума

по точке

эксперимента х1 £ D выражения

 

 

min М

т° +

Ѳ°/ (х1)бі

f(zl)

(340)

 

 

V f* (х1) Ѳ<7 (xij + öH*1)

149