Файл: Основы автоматического управления..pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 386

Скачиваний: 15

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Рис. 13.1.5.

§ 13.2. СТА ТИ СТИ ЧЕС КИ Е К Р И Т Е Р И И ОПТИМ АЛЬНОСТИ

4 9 5

а требуемым выходным сигналом —

W (t) = S (t) - ВЯЫ2 (*).

П р и м е р 13.1.2. Предположим, что требуется определить динамиче­ ские характеристики некоторой системы в процессе ее работы. В этом случае

г л B„Ns(t)

I I

- W*lt)

4<2н>

Рис. 13.1.4.

обычно записывают входную и выходную переменные системы как функции времени и по этим записям находят их вероятностные характеристики. Динамические характеристики системы определяются ее оператором, т. е. законом, по которому каждой данной входной функции приводится в соответствие выходная

функция. Обозначим через Z (t) входную функ­ цию системы, а через W (1) ее выходную функ­ цию. Вследствие ошибок в измерении и в записи входной и выходной функций точное определение оператора системы принципиально невозможно. Поэтому задачу определения характеристик си­ стемы приходится ставить следующим образом: найти такую модель изучаемой системы, выходная переменная которой W* (г) насколько возможно более близка к выходной переменной системы

W (t) (рис. 13.1.5). Таким образом, задача экспериментального определения динамических характеристик какой-либо системы в процессе ее нормальной работы также сводится к поставленной выше основной задаче теории опти­ мальных систем. При этом требуемой выходной переменной искомой модели системы является выходная переменная системы W (t).

§ 13.2. Статистические критерии оптимальности автоматических систем

Ошибка системы, определяемая формулой (13.1.5), является случайной функцией времени. Поэтому она не может непосредствен­ но служить оценкой точности системы в силу своей неопределенно­ сти. Вследствие этого естественно взять какое-то ее вероятностное среднее значение. Учитывая, что знак ошибки в большинстве слу­ чаев нас не интересует, естественно принять за характеристику точности системы математическое ожидание квадрата ошибки:

т| = М [Е2 (01.

(13.2.1)

Эта величина представляет собой начальный момент второго поряд­ ка ошибки системы. Положительный корень квадратный из этой


496

г л . 13. СТАТИСТИЧЕСКАЯ Т ЕО РИ Я О П ТИ М А Л ЬН Ы Х СИСТЕМ

величины обычно называется средней квадратической ошибкой сис­ темы. Таким образом, оптимальной системой можно считать такую систему, которая обладает минимальной средней квадратической ошибкой.

Критерий минимума средней квадратической ошибки являет­ ся простейшим с математической точки зрения и обычно приводит к наиболее простым методам определения оптимальных систем. Однако далеко не во всех задачах он может служить подходящей мерой качества системы. Поэтому теория оптимальных систем не может ограничиться методами нахождения оптимальных систем по критерию минимума средней квадратической ошибки.

Величина т), как момент второго порядка ошибки, может быть выражена через математическое ожидание и дисперсию ошибки, т. е. является функцией математического ожидания и дисперсии ошибки. Поэтому естественным обобщением критерия минимума средней квадратической ошибки является критерий экстремума заданной функции математического ожидания и дисперсии ошибки:

/ [Е], D [Е]) = extremum.

(13.2.2)

Это обобщение критерия минимума средней квадратической ошиб­ ки предложено Н. И. Андреевым, который вывел общие необходи­ мые и достаточные условия для определения оптимальной системы по этому критерию в произвольном классе систем и дал общее решение задачи определения оптимальной линейной системы [2, 3] (см. также [53], гл. 16 и 17)*). Если закон распределения ошибки полностью определяется ее математическим ожиданием и диспер­ сией, например, если ошибка распределена нормально, то частным случаем критерия (13.2.2) является критерий максимума вероятно­ сти того, что ошибка не выйдет из заданных пределов:

Р (I Е (г) I < Ф (0) = max,

(13.2.3)

где ф (t) — заданная функция.

Перечисленные критерии основаны на количественной оценке ошибки приближения, т. е. разности между фактическим и требуе­ мым выходными сигналами. Вследствие этого они могут применять­ ся только для решения некоторых задач воспроизведения сигналов. В задачах обнаружения сигналов, для которых имеет значение не величина ошибки, а лишь качественный факт наличия или отсут­ ствия ошибки, приходится пользоваться другими критериями, например критерием минимума вероятности ошибочного решения. Предполагая, что система решает, что сигнал есть, если ее выход­ ной сигнал W* превышает некоторый пороговый уровень с, и ре-

*) Независимо от Н. И. Андреева решение задачи определения опти­ мальной линейной системы по критерию вида (13.2.2) было дано В. С. Рыба­ ковым.


§ 13.2. СТА ТИ СТИ ЧЕСКИ Е К Р И Т Е Р И И ОПТИ М А ЛЬН О СТИ

497

шает, что сигнала нет, если W* ^ с, можем записать этот критерпй в виде

 

W ф 0\

/ W = О

(13.2.4)

Рош — Р

\Ѵ*^с) + Р

= min.

 

\W * > c

 

Вторым критерием для решения задачи обнаружения сигналов может служить критерий условного минимума вероятности оши­ бочного решения при заданной условной вероятности ложного обнаружения сигнала, когда он отсутствует во входной случайной функции, т. е. критерий (13.2.4) при дополнительном условии

Р (W* > с I W = 0) = а.

(13.2.5)

Этот критерий обычно называется критерием Неймана Пирсона. Заметим теперь, что все рассмотренные выше критерии опти­ мальности, кроме (13.2.2), а также большое количество различных других статистических критериев можно представить в общей

форме

М И {W, W*)] =

min,

(13.2.6)

где I (W, W*) — некоторая функция

требуемого

и действитель­

ного выходных сигналов. В зависимости от выбора функции

1{W, W *) получается

тот или иной критерий

оптимальности.

В частности, при

 

 

I (w,

W*) = (W* - W ) 2 = Е2

(13.2.7)

формула (13.2.6) дает критерий минимума средней квадратической ошибки (13.2.1).

При

при \ W* — W |>q>(i),

 

1

(13.2.8)

l(W, W*) =

при I W* W I < ф (t)

0

 

получается критерий минимума вероятности выхода ошибки из за­ данного интервала (— ср (<), ср (0)- Действительно, при таком выборе функции I (W, И™)

M U (W , w*) 1 = 1 - Р ( | Е (*) I > < Р (<)) + о . Р ( | Е ( г ) |< « р (0 ) = = Р (I Е (0 I > Ф (0) = 1 — Р (I Е (0 I < ср (*)).

Чтобы представить в виде (13.2.6) критерий минимума вероятно­ сти ошибки при решении задачи обнаружения сигнала (13.2.4), возьмем такую функцию I {W, В7*), которая равна нулю при пра­ вильном решении задачи обнаружения, т. е. когда W = 0, W* ^ с или W* ф 0, W* >• с, и равна единице при ошибочном решении, т. е. когда W Ф0, W* ^ с или W = 0, W* > с:

1{W, W*

0

при ѴЕ = 0,

и при В7Ф 0,

В/* > е ,

1

при ]№фО,

W*<^ с и при В7 = 0,

Вг* > с . (13.2.9)

32 Под ред. В. С. Пугачева


498

ГЛ . 13. СТА ТИ СТИ ЧЕСКА Я Т Е О РИ Я О П ТИ М А Л ЬН Ы Х СИСТЕМ

Математическое ожидание этой функции равно произведению ее значения при правильном решении на вероятность правильного решения плюс произведение ее значения при ошибочном реше­ нии на вероятность ошибочного решения:

М И (W , W *)] = О -(I - Рош) + 1 .рош = р 0ш. (13.2.10)

Для отыскания условного минимума вероятности р0ш ПРИ дополнительном условии (13.2.5), согласно методу неопределен­ ных множителей Лагранжа, необходимо найти минимум величины

Рі = Рот + h P ( W * > c \ W = 0),

(13.2.11)

где — неопределенный множитель, и после этого определить Хі так, чтобы было выполнено условие (13.2.5). Обозначая через р и q соответственно вероятность наличия и вероятность отсутствия сиг­ нала во входной случайной функции (q = 1 — р), можем перепи­ сать равенство (13.2.11) в виде

Pi = PP ( W * ^ c \ W-.

где

;0 ) - н ( і + — ) />(117* > с | Ж = 0):

f w * ° ) + u > l w = 0 )

(13.2.12)

\ W > C

Я =1 + -^ -.

(13.2.13)

Из формулы (13.2.12) видно, что критерий минимума величины р^ также можно представить в форме (13.2.6), если определить функ­ цию I (W , W*) формулой

l(W, W*) ■ X при W = 0,

W * > c,

0 при ТУ =/=(),

W* >- с и при W = 0, ТУ*^с,

где X — неопределенный параметр.

Таким образом, критерий минимума вероятности ошибки и кри­ терий условногоминимума вероятности ошибки при заданной услов­ ной вероятности ложного обнаружения сигнала при его отсутствии во входной случайной функции являются частными случаями кри­ терия (13.2.6), причем для первого критерия функция I определена полностью формулой (13.2.9), а для второго критерия она содержит неопределенный параметр X, который должен быть определен после нахождения минимума из дополнительного условия (13.2.5).

В задачах

практики

часто оказывается полезным также кри­

терий (13.2.6)

при выборе функции I в виде

 

 

l(W,

W *)= l — e~k4w*~w)\

(13.2.15)


§ 13.2. СТА ТИ СТИ ЧЕС КИ Е К Р И Т Е Р И И ОПТИМ АЛЬНОСТИ

499

Таким образом, мы получаем следующий общий принцип оцен­ ки качества системы и выбора критерия оптимальности. Качество решения задачи в каждом конкретном случае оценивается неко­ торой функцией I (W , И7*), значение которой определяется кон­ кретными реализациями требуемого выходного сигнала W и дей­ ствительного выходного сигнала системы W*. Эту функцию целе­ сообразно назвать функцией потеръ. Качество решения задачи в среднем для данной реализации требуемого выходного сигнала W при всех возможных реализациях действительного выходного сигнала W *, соответствующих данной реализации сигнала W , оце­ нивается условным математическим ожиданием функции потерь при данной реализации требуемого выходного сигнала:

р I W) = М И (W , Ж*) I W],

(13.2.16)

Эту величину обычно называют условным риском. Условный риск зависит от оператора А, определяющего W*, и от реализации тре­ буемого выходного сигнала W, что и отражено в обозначениях в формуле (13.2.16). Наконец, среднее качество решения задачи при всех возможных реализациях сигналов W и W* характери­ зуется математическим ожиданием условного риска, равным безу­ словному математическому ожиданию функции потерь:

R (А) = М I W)] = М [Z (W, W*)]. (13.2.17)

Эту величину естественно назвать средним риском. Установив таким образом меру качества системы, мы можем принять за кри­ терий оптимальности системы критерий минимума среднего риска,

который имеет форму (13.2.6).

Если требуется обеспечить наилучшее решение задачи при неко­ торых дополнительных условиях, то, представив эти дополнитель­ ные условия в виде

Oft {А) = М [ер/, (W, JE*)] = ah {k = 1, . . ., N) (13.2.18)

и применяя метод неопределенных множителей Лагранжа, мы сведем задачу к отысканию минимума величины

Rl ( A ) ^ R ( A ) +

N

N

 

+ 2

XftGft (А) = M [ l (W, W*) + 2

k(W,W*)]. (13.2.19)

h=l

h=l

 

Эту величину, очевидно, можно рассматривать как средний риск

соответствующий

функции

потерь

 

 

 

 

 

 

 

 

N

 

 

 

 

h (W, W*) =

I (W, W*) +

2 *■№ (W, W*),

(13.2.20)

 

 

 

 

ft=1

 

 

 

зависящей

от неопределенных параметров

. . .,

В

рас­

смотренном

выше

случае

критерия

Неймана — Пирсона

для

32*