Файл: Методы оптимизации в статистических задачах управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 21.10.2024

Просмотров: 110

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

числению математического ожидания некоторой функции и может производиться параллельно с вычислением F (я).

При нормальном законе распределения (321) вектора £ фор­ мулы (323) и (326) принимают соответственно вид:

ш = М[Ф & ті) ѳ~1 (£ -* )];

 

=

№. л ) | - ѳ - +

(327)

 

Ч-ö-1(g—^)(g—хГѳ-1}].

При использовании формул (327) иногда бывает целесообразно ввести случайный вектор £ таким образом, чтобы матрица Ѳ стала бы диагональной.

13. Статистический подход к задаче формирования оптимального метода минимизации функции с учетом ограничения числа измерений минимизируемой функции

В предыдущих параграфах сделан обзор известных методов минимизации функции конечного числа переменных. Значитель­ ное число перечисленных методов и тенденция к дальнейшему увеличению числа методов минимизации говорит о том, что су­ ществующие методы не всегда удовлетворяют практиков.

По мнению авторов, недостатки существующих методов со­ стоят в следующем:

1.Как правило, не учитывается априорная информация о ха­ рактере исследуемой функции.

2.Значительная часть существующих методов не учитывает наличия случайных ошибок в измерениях функции. Исключение составляет лишь группа методов стохастической аппроксимации. Как показывает практика, методы характеризуются слишком низкой скоростью сходимости.

Эти недостатки приводят к увеличению числа итераций в про­ цессе оптимизации. В тех случаях, когда измерения или вычисле­ ния значений функции не связаны со значительными затратами,

применение существующих методов оптимизации дает вполне удовлетворительный результат. В тех же случаях, когда всякие эксперименты над оптимизируемыми процессами приводят к зна­ чительным затратам, целесообразно применять методы, облада­ ющие максимальной скоростью сходимости и не требующие про­ ведения большого числа измерений функции.

В связи с вышесказанным представляет интерес исследование оптимального метода нахождения минимума функции при фикси­ рованном числе измерений функции. Этому вопросу и посвящен настоящий параграф.

141


Задана некоторая система, эффективность функционирования которой определяется скалярным параметром F. Указанный параметр зависит от некоторой совокупности управляющих пара­

метров х 1г

х 2,

. . ., хп,

образующих вектор х. На управляющие

параметры

наложено

ограничение x £ D , где D — некоторое

ограниченное

множество.

Точный вид функции F (х) неизвестен, так как обычно с по­ мощью аналитических методов не удается провести анализ ка­ чества функционирования системы. Однако из априорных сообра­

жений известна структура функции

F (я):

 

 

 

т

 

 

 

 

F(x) =

H

c j t ( X)

= c*f (X ),

(328)

 

 

t=1

 

 

 

где f (x) =

(x), /2 (x),

. . .,

fm (x)) — известная

вектор-функ­

ция, определенная на множестве D\ с = (сх, с2, ■• •, ст) — слу­ чайный нормально распределенный вектор, математическое ожи­

дание которого равно т° и

дисперсионная

матрица

равна Ѳ°:

М [о] = ту, і = 1 , 2 , . . . , т;

 

М [(с,- — ну) (с,- т°)

= Ѳ?7; г, / =

1, 2, . . .,

т.

Соответствующий ■подбор вектор-функции f (х) и статисти­ ческих характеристик вектора с дает возможность использовать предварительные знания о природе исследуемой системы.

Сцелью уточнения вида функции F проводятся эксперименты

ссистемой. Каждый эксперимент состоит в измерении значения функции F (х) в любой точке х области D с некоторыми ошиб­ ками г]. В частности, в результате г-го измерения в точке х1 полу­ чается скаляр уу.

Уі = c*f (х‘) + Л/.

(329)

где г]і — нормально распределенная центрированная случайная величина, дисперсия которой равна сг2. В общем случае диспер­ сия о2 может зависеть от точки х{, в которой проводился і-й экспе­ римент:

D [г)(] = о2

(х‘).

 

Будем предполагать, что ошибки

измерения

в различных

экспериментах статистически независимы.

Пусть имеется возможность проведения N экспериментов с си­ стемой, после чего будет получена совокупность величин у ъ Уг, ■■■, УNi образующих вектор у. В результате обработки полу­ ченных результатов можно уточнить распределение случайного вектора с и, следовательно, функцию F (х).

142


Основной задачей оптимизации является определение точки

х+ а

D, при которой апостериорное математическое ожидание 5

некоторой заданной

функции Ф (F) достигало бы минимума:

 

5 = М (F (х+))]

=

min М (F (je))],

 

 

 

 

x c z D

 

где Ф (F) — некоторая заданная

функция

критерия.

В частности, если Ф (F) = F, то х+ минимизирует апостериор­

ное

математическое

ожидание

функции

F (х); если Ф (F) =

= 1 (F т), то х+ минимизирует вероятность того, что значение функции больше некоторого заданного порога т.

Величина М (F (х+)) ] однозначно определяется апосте­ риорными статистическими характеристиками вектора с. В рас­ сматриваемой постановке задачи вектор с апорстериорно будет распределен по нормальному закону, так как в формуле (329) у{ линейно зависит от с, а вектор с и ошибки измерения г) априорно распределены по нормальному закону [82]. Поэтому в данном слу­ чае величина М (F (х+))] одназначно определяется апосте­ риорным математическим ожиданием mN вектора с и апостериор­ ной дисперсионной матрицей Ѳ'Д

М (F (х+))] = ф (mN, Ѳ^).

Очевидно, что успех оптимизации, т. е. экстремальное значе­ ние критерия зависит от последовательности точек х 1, в которых производятся измерения функции, и от результатов измерения уК Рассмотрим задачу выбора последовательности точек х1, при ко­ торой среднее по возможным результатам измерения значение успеха оптимизации ф (mN, QN) достигает минимума. При этом

возможны

два

варианта постановки задачи:

xN выбираются

1.

Точки проведения эксперимента х1, х2, . . .,

все

сразу,

и

после проведения экспериментов

определяется

точка х+.

2. Точки приведения экспериментов определяются последо­ вательно, причем выбор х‘+1зависит от предыдущих результатов экспериментов х1, y lt х2, у 2, . . ., х1, у1.

Для вывода уравнения оптимальности воспользуемся методом динамического программирования.

Предварительно заметим, что так как апостериорное распреде­ ление вектора с после проведения произвольного числа экспери­ ментов является нормальным, то вся информация о предыдущих измерениях заключена в значении апостериорного математиче­ ского ожидания вектора с и апостериорной дисперсионной ма­ трице. Апостериорное математическое ожидание вектора с и апостериорную дисперсионную матрицу при проведении k изме­ рений обозначим тк и соответственно (k = 0, 1,2, . . ., N).

Для получения связи результатов k измерений с апостериорным математическим ожиданием (оптимальной оценкой) тк вектора с и дисперсионной матрицей Ѳ* можно воспользоваться соотноше­

143


ниями теории оптимальной фильтрации. В данном случае целе­ сообразно использовать результат Калмана [42] в дискретной форме [58]:

 

т! = т! -1 -f- Ѳ' / (.X1‘) ■у‘

---- ;

 

 

ef- y

(*') f

(*') ѳ '-1

 

 

/’ W e ' - V W + a 2’

 

 

t — 1. 2,

• •

Af•

 

Введем в рассмотрение семейство функций St (т,

Ѳ) = 1,

2, . .

ІѴ), соответствующих

среднему значению

показателя

качества 5 при оптимальном способе выбора точек эксперимента, если осталось провести і экспериментов, а апостериорные харак­ теристики вектора с после проведения предыдущих измерений равны т и Ѳ. Очевидно, что S 0 (т, Ѳ) = ф (т, Ѳ).

Выведем рекуррентные соотношения для определения семей­ ства S t (т, Ѳ). Предположим, что уже были проведены N — і экспериментов (г = 1, 2, . . ., N) и требуется выбрать точку про­ ведения ( N — і + 1)-го эксперимента. Пусть после проведения N і экспериментов статистические апостериорные характери­ стики вектора с были mN~l и Ѳ"- г , а ( N —■г -f 1)-й эксперимент производится в точке х £ D. Тогда апостериорные характеристики вектора с будут:

mN—i+i _ mN—i _j_ дmN~~l — mN~l -)-

 

+

в« -‘+Ч (I)

W

;

 

 

e N ~l f ( x ) f * w

 

 

QA'-i'+l — Ѳ^ - 1 f ( * )

f (x) +

a 2

(330)

Среднее значение критерия S при оптимальном способе выбора

точек проведения

оставшихся і — 1 экспериментов

будет:

5 = М

I mN~l + Q N - l + l f

(д;) yN-i+\ — f (*)т

 

 

0 ѵ ~ г / ( х ) f

(х) Ѳ ^ - 1 \ ~

 

 

 

Г м е " " ' f W + o2

'

 

Очевидно, что для того, чтобы точка xN~l+l

была оптимальной

точкой

проведения эксперимента, необходимо и достаточно выпол­

нение

равенства:

 

 

М

S,_ 1 Im "-' +

(xN- ‘i+!)14

, N - i +l)mN- 1

У м - і + 1 —f (■

 

Ѳы ~ 1 f

[xN - l + l ) f

qN i ч -I

144


= min A4 Si_i \tnN~l + W ~l+'f{x)

yN- i+i — f (x)mN —l

 

x£D

 

o2

 

 

 

 

®N~ l f (x) f (x) ѲѴ~‘

=

S, (mN- 1, QN~l ),

( 331)

/* w Ѳ^- ‘ / (X) + o2

 

 

 

где математическое ожидание берется по возможным случайным результатом измерений уы-і

Для вычисления математического ожидания в формуле (331) рассмотрим статистические характеристики разности

Длг_і+і = üN-i+ 1 — /* (х) mN~l .

Подставляя в выражение Ац—і+і равенство (329), получим:

Ajv—/+і = (с — mN~l )* / (х) + т)лг_«+і =

^N—if {х) 4" ЦіѴ—І4 1-

(332)

В выражении (332) случайный вектор %N_t представляет собой ошибку определения вектора с после N і измерений. Это цен­ трированный, нормально распределенный вектор с дисперсионной матрицей . Естественно, что вектор | ЛГ_І и скаляр т]дг_м статистически независимы. Из уравнения (332) следует, что при вычислении математического ожидания в формуле (331) случай­ ную величину разности A^_m следует рассматривать как случай­ ную центрированную нормально определенную величину, диспер­

сия

которой

 

 

 

 

 

D [Ajv-,-+i] = /*

( х " - ^ 1) QN-if {Хм-і+і) + o’2.

 

Таким образом, А^_;+1

допускает следующее представление:

 

К - І +1= V Г {xN~l+l) ®N- 1f (xN~i+1) + <*2 блг-(чь ,(333)

где

— центрированная нормально

распределенная

вели­

чина

с единичной дисперсией

 

 

 

 

D (Здг_іЧ1]

= 1.

 

 

Для упрощения системы рекуррентных соотношений (331)

преобразуем выражение

AmN~‘,

используя соотношения

(330)

и (333):

 

 

 

 

 

АmN~l = QN-i+if до

 

N - i

 

 

f

(x) m

 

 

Q N - i

QN~ l f(x) f

(x)

f(x) X

 

 

 

f ( X)

( X ) + a2

 

 

 

 

 

 

 

 

6

f (x) бдг—г-t-i

(334)

 

X -------------- ^2--------------- °JV-M

Vf (X) Qn ~ ‘ [ { x ) + a 2 '

10 А. M. Батков

145