Файл: Кавалеров, Г. И. Введение в информационную теорию измерений.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 16.10.2024
Просмотров: 121
Скачиваний: 0
1-4. ОПИСАНИЕ ПОГРЕШНОСТЕЙ (ДИНАМИКА)
Перейдем далее к рассмотрению погрешностей с учетом времени. Реальный процесс измерений связан с внесением погрешностей некоторых видов, которые не могут быть учтены только по одномерному распределе нию вероятностей, т. е. в статике. Описание погрешно стей как случайного процесса открывает возможности их оценки. За этими погрешностями укоренилось название «динамические погрешности». В ходе последующего изло жения будут рассматриваться динамические погрешно сти, вызванные рядом причин. При этом учитывается, что статика есть частный случай динамики.
Прежде всего процесс измерения всегда связан с ди скретизацией исходного сигнала во времени. Сама опе рация дискретизации—операция замены непрерывного во времени сигнала конечной последовательностью его мгновенных значений на данном интервале времени, как будет показано далее, неизбежно связана с внесением погрешностей [Л. 1-48]. Если дискретизированный во вре мени процесс, т. е. последовательность, подвергается дальнейшему преобразованию, например восстанавлива ется снова до непрерывного или дискретного по уровню случайного процесса, то при этом не удается получить желательный идеальный процесс; разность между полу ченным и желаемым процессами и есть вносимая дискре тизацией и восстановлением погрешность. Кроме того, в процессе преобразования сигнала на аналоговых (не прерывных) звеньях также вносится погрешность, вы званная инерционностью последних. Если передаточная функция звена неизменна' во времени, то статистиче ские характеристики этой погрешности полностью опре деляются статистикой процесса на входе данного звена н видом передаточной функции. Наличие случайных изме нений передаточной функции приводит к дополнительным погрешностям.
В качестве основных критериев для оценки динами ческих погрешностей естественно взять среднеквадрати ческую .погрешность и математическое ожидание (сред нюю погрешность). Наряду с этим в литературе часто применяют отношение дисперсий a2x/azy (отношение мощности сигнала и помехи). Известен ряд попыток ввести взвешенные показатели с различными весовыми функциями |[Л. 1-16—1-20, 1-22, 1-23].
54
Представляется целесообразным в ряде случаев кри терий Гловера [Л. 1-15], записанный в виде
т
I* — lim |
І° (0 -з |
(О]2■dt, |
(1-50) |
Т-*оо І |
и о г + /4 |
|
|
где t/макс — максимальная |
абсолютная статическая по |
||
грешность. |
|
|
|
Величиной (Д,акс обычно можно пренебречь, в то вре мя как при измерении малых величин с большими по грешностями или шумами величина г/2Макс достаточно су щественна. В силу квадратического характера критерия по нему возможна оценка измерений знакопеременных величин, а в силу его относительного характера погреш ности взвешиваются по значениям сигнала, т. е. учитыва ется, что одна и та же величина абсолютной погрешно сти может быть опасна или не опасна в зависимости от текущего значения измеряемой величины. Критерий Гло вера применим к отдельным звеньям и всей системе в целом.
При выборе частоты отсчетов представляет интерес введение специальной функции штрафов. Пусть дискре тизации подвергается стационарный случайный процесс X(t). Требуется выбрать частоту опроса с учетом после дующей интерполяции по дискретным во времени заме рам. Естественно, что повышение частоты измерений сни жает погрешность интерполяции, но одновременно удо рожает операцию измерения, так как требуется более быстродействующая аппаратура. В качестве функции штрафов можно принять следующую зависимость:
ф (7)= М Ч Н г/в) ] + ^ ( Г ) , |
(1-51) |
где ki и кг— масштабные коэффициенты, зависящие от единицы измерения штрафа; хК(ув) — выбранный крите рий оценки погрешности, например максимальное зна чение дисперсии погрешности интерполяции ув при
используемом методе восстановления а2 |
, где макси- |
"о .макс |
|
мум берется по множеству возможных значений, соот ветствующих различным моментам времени внутри ин тервала интерполяции; Т — интервал времени между из мерениями (это время предполагается постоянным).
Первое слагаемое в формуле (1-51) отражает потери от погрешности интерполяции, второе — затраты на уве личение быстродействия аппаратуры.
55
В гл. 4 будет 'показано, что а2 |
полностью оііре- |
"п.ыакс |
|
деляется дисперсией измеряемого процесса, его автокорреляционной функцией, величиной Т и выбранным видом интерполяции. При постоянстве всех прочих параметров £ІчВ(г/в)] = £(7') • Таким образом, функция штрафов зави сит от интервала времени между измерениями Т. В силу самого характера выбранного критерия естественно на ложить на функцию штрафов следующие ограничения:
1) функция штрафов всегда положительна, т. е. ср!>0 при любых значениях 7;
2) ЦТ) и ЦТ) принципиально могут существовать только в области положительных значений Т. Как пра
вило, область |
возможных значений Т ограничена, т. |
е. |
|
0 < Т н^ Т < Т в, |
где Тп и Тв — соответственно |
нижний |
и |
верхний пределы возможных значений Т; |
пределах |
||
3) ЦТ) есть неубывающая функция в |
0 < Т н < Т < Т в, а Ц Т )—невозрастающая функция своего аргумента;
4) при Тк—ѵоо и Т—уоо функция ср должна иметь лостояный предел. Действительно, максимальное значе ние среднеквадратической погрешности оМакс при Т— >-оо стремится к некоторому постоянному пределу, опреде ляемому только дисперсией измеряемого процесса. С дру гой стороны, при Т—>-оо ЦТ) также стремится к посто янному пределу, так как начиная с некоторых значений Т увеличение интервала времени между отсчетами не приводит более к уменьшению потерь;
5) при Тп= 0 и Т—у-0 ср-э-оо, так как бесконечно ча стые измерения штрафуются бесконечно большой функ цией.
Приведенные условия не определяют однозначно функцию штрафов, но хорошо согласуются со здравым смыслом и существенно сужают класс возможных за висимостей. Кроме того, эти условия приводят к наличию минимума у ср. Действительно, так как
|
аЦТ) |
+ К |
dl (Т) |
’ |
|
где |
дТ |
|
дТ |
||
|
|
|
-ді |
|
|
■'дК |
-с-, - |
оо : |
:о, |
||
'дТ |
|
|
|
'дТ |
|
то всегда найдется такое Т = Т 0, при котором ф'(Т0) —0. Нетрудно показать, что этот экстремум — минимум.
56
1-5. ИНФОРМАЦИОННЫЕ КРИТЕРИИ
При выполнении измерений наблюдатель стремится получить информацию, дополнительное знание о процес сах, которые он изучает. До осуществления измерений он располагает некоторым представлением об измеряе мой физической величине, которую можно описать рас пределением .вероятностей. Характер этого распределе ния определялся несколькими факторами, из числа ко торых в первую очередь выделим характер изучаемого па раметра вообще. Математически это представляется как знание бесконечного прошлого, что при соблюдении эргоднческой гипотезы эквивалентно знанию многомерного распределения процесса, а следовательно, и всех его мо ментов. У наблюдателя имеются также знания ближай шего к моменту измерения конечного прошлого. Сопо ставление ближайшего конечного прошлого с известным спектром процесса в ряде случаев позволяет предсказать априорное распределение вероятностей измеряемой ве личины. Наконец, наблюдатель мог знать о значениях других измеряемых величин, коррелированных с изучае мой.
После осуществления измерений наблюдатель имеет другое распределение вероятностей, определяемое уров нем организации эксперимента и степенью несовершен ства измерений, включая внутренние шумы аппаратуры и внешние влияющие факторы; выбранной дискретностью по шкале и во времени. Кроме того, имеются принципи ально неустранимые факторы дезинформации, связанные с микроскопической структурой измеряемой величины и необходимостью энергетического взаимодействия между датчиком it изучаемым объектом. Последнее ограниче ние может быть охарактеризовано искажениями изме ряемой величины под воздействием датчика, что приво дит в ряде случаев к физическому барьеру наблюдаемо сти (см. гл. 7).
В качестве характеристики результата измерений естественно взять некоторую функцию от указанного пе рераспределения вероятностей. Следуя классической ме тодике, принятой в теории информации, охарактеризуем распределение вероятностей до эксперимента безуслов ной или априорной энтропией (неопределенностью), а’после эксперимента—условной или апостериорной энтропи ей. Разность их, т. е. мера уменьшения неопределенности,
57
и есть количество информации (абстрактное), получен ное при измерении. Тем самым мы введем в рассмотре ние информационные показатели1.
О целесообразности применения информационных ха рактеристик говорит прежде всего тот факт, что они по зволяют оценить во многих случаях предельные, т. е. потенциальные возможности исследуемых методов изме рения. Например, в {Л. 1-43] доказано следующее общее утверждение. Если задана повторная выборка (дц, х2, ...
.. ., хп) с распределением, зависящим от параметра Ѳ (из евклидового «.-мерного пространства), и %— вектор ная достаточная статистика для Ѳ, имеющего распреде
ление р(Ѳ) из |
некоторого класса |
распределений, то |
ѳ — І г <--> ѳ’ |
где ^ — количество |
информации в соот |
ветствующей паре случайных величии по Шеннону.
В связи с возрастающей сложностью систем инфор мационные оценки приобретают все большее значение, так как они позволяют описать весь тракт получения, передачи и переработки информации единым математи ческим аппаратом. В качестве информационных крите риев применяются количество информации на одно из мерение и скорость передачи информации. Первый из этих критериев при независимости следующих друг за другом измерений дает статическую оценку, второй — естествен ную оценку динамических характеристик прибора, при наличии которой, по-видимому, теряют актуальность искусственные построения зависимостей быстродействия от точности.
Остановимся в первую очередь на некоррелированных измерениях, т. е. па таких, при которых интервал дискре тизации процесса во времени Т (время между двумя во времени ближайшими измерениями) 'больше, чем время действия автокорреляционных связей. Для этого доста точно, чтобы рх (Т) =«0, где Px-(t) — нормированная авто корреляционная функция центрированной составляющей измеряемого случайного процесса. Для таких измерений информационная оценка будет получена, в частности, в § 2-6 и 3-3. Исходная формула для вычисления количе ства информации [Л. 1-24]
I= H(X) —H{X\Z) =H{Z)—H(Z\X), |
(1-52) |
1 Как будет показано ниже на ряде примеров и в соответствии с [Л. 1-44], информационные оценки не могут быть получены одно значно из какого-либо функционала от распределения погрешности.
58
Где Н(X) и Я (Z) — безусловные энтропии (неопределен ности до эксперимента) соответственно величин на входе и на выходе прибора; Я (X \ Z) и Н (Z \Х) — условные эн тропии (неопределенности после измерения) соответст венно входной величины при задании выходной и нао борот.
Расчетные формулы для вычисления этих энтропий будут даны в § 3-3.
В случае применения информационных оценок для анализа промежуточного аналогового t-го звена форму
ла |
(1-52) |
имеет вид: |
h t+i~ x |
= Н (z <+.) - Н & і +і \Х) = Н (X) — Н( Х\ Zi+t), |
|
|
|
(1-53) |
где |
17 |
у — количество информации в процессе на |
выходе |
звена относительно истинного значения; |
Я (Z,+1) — безусловная энтропия на выходе (і+ 1 )-го зве на; Н(Х) — то же, что и в формуле (1-52); H(Zi+i\X) — среднее значение условной энтропии процесса на выходе (7+1)-го звена при задании истинного значения; Н(Х I Zf+i) — среднее значение условной энтропии истин ного значения измеряемой величины при задании величи ны на выходе і-го звена.
Авторы предполагают, что основные понятия теории информации известны читателю из обширной литерату ры, например [Л. 1-24—1-26 и др.]. Поэтому ограничимся лишь напоминанием некоторых, часто применяемых в дальнейшем изложении формул.
Безусловная энтропия распределения вероятности ди
скретных значений |
|
Я ( Х ) = - £ р/1о£ р,-, |
(1-54) |
;= і |
|
где рі—вероятность /-го из возможных п значений вели чины X.
Для непрерывного распределения вероятностей отно сительная мера безусловной энтропии имеет вид:
00 |
|
Я(Х) = — ^ w(x)logwx(x)dx. |
(1-55) |
— СО
59