Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 728

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Таблица П.8.4.3

М а к с и м и з а ц ия А при различных предположениях об элементах матриц Г и й дл я определения начального плана экспериментов

 

а) соц = э°,

(022 =

0

0

,

(012 = (021 = 0

 

 

 

Р12

°!

 

 

ХІА

 

 

 

ХІВ

Ж 2 А

Х

Целевая функция Л

0

i

1

 

0

 

 

 

 

0,573

0,280

0,720

4 , 4 0 - Ю - з

0

0,1

1

 

0,280

 

 

 

0,720

0

0,580

2,42 - Ю - з

0

i

ОД

 

0,351

 

 

 

0

0,280

0,720

2,42 - Ю - з

0

103

Ю - 3

 

0,351

 

 

 

0

0,281

0,719

2,20-103

0

Ю-з

103

 

0

 

 

 

 

0,582

0,280

0,720

2,20-103

0,5

1

1

 

0

 

 

 

 

0,582

0,269

0,428

2,11 - Ю - з

0,5

103

Ю-з

 

0,351

 

 

 

0

0,280

0,720

2 , 2 0 - Ю 3

0,5

Ю - 3

103

 

0

 

 

 

 

0,585

0,281

0,719

2,20-103

 

б)

CÛ11 =

1,

(022 =

 

1,

(012 = «21 = О

 

 

 

Р12

 

° І

 

ХІА

 

 

 

Х

Х

Х

Целевая функция Д

0

1

i

 

0,280

 

 

 

0,720

0,280

7,720

1,555

 

0

0,1

i

 

0,280

 

 

 

0,720

0,280

0,720

1,305

 

0

1

0,1

 

0,280

 

 

 

0,720

0,280

0,720

1,305

 

0

103

Ю-з

 

0,279

 

 

 

0,721

0,347

0,001

2,36-103

0

Ю-з

103

 

0,282

 

 

 

0,718

0

0,593

2 , 4 6 - Ю 3

0,5

1

1

 

0,281

 

 

 

0,719

0,284

0,716

1,278

 

0,5

103

l u " 3

 

0,291

 

 

 

0,709

0,360

0,005

2,33-103

0,5

Ю - 3

103

0,282

 

 

 

0,718

0

0,593

2,46-103

 

В)

(OU =

102,

Ю 2 2

=

=

10-2, 0)12 == (021 = 0

 

 

 

Р12

0-2

° ï

 

Х

 

 

 

Х

Х

хгв

Целевая функция Д

0

1

1

0,274

 

 

 

0,726

0,277

0,723

8,307

 

0

0,1

1

0,280

 

 

 

0,720

0,280

0,720

5,020

 

0

1

0,1

0,279

 

 

 

0,721

0,279

0,721

5,020

 

0

103

Ю-з

0,341

 

 

 

0

0,277

0,723

5,85-103

0

Ю-з

103

0,280

 

 

 

0,720

0,280

0,720

3,66-103

0,5

1

1

0,351

 

 

 

0

0,351

0

4,652

 

0,5

103

Ю - 3

0,351

 

 

 

0

0,280

0,720

5,85-103

0,5

Ю-з

103

0,280

 

 

 

0,720

0,280

0,720

3 , 6 5 - Ю 3

 

Г)

(ОЦ =

10-2,

0)22=

 

102, (0 1 2 =

(021 = 0

 

 

 

 

С2

 

 

ЧА

 

 

 

 

 

Ѵ 2 А

 

Целевая функция Ь

 

 

 

 

 

 

 

 

 

 

 

1

1

0,280

 

 

 

0,720

0,280

0,720

49,23

 

 

0,1

1

0,279

 

 

 

0,721

0,281

0,719

27,52

 

 

1

0,1

0,280

 

 

 

0,720

0,280

0,720

27,52

 

 

Ю 3

Ю-з

0,280

 

 

 

0,720

0,280

0,720

2,41 •10*

 

Ю - 3

103

0

 

 

 

 

0,577

0,280

0,720

2,63-10*

 

1

1

0,280

 

 

 

0,720

0,280

0,720

25,11

 

 

103

Ю-з

0,280

 

 

 

0,720

0,280

0,720

2,41

10*

 

Ю - 3

103

0

 

 

 

 

0,581

0,281

0,719

2,63

10*


Стратегия эффективного экспериментирования 593

При w1 2 = О І 2 1 0

можно

написать

 

 

 

 

Г " 1

0 "I

 

 

 

»11

 

Q _ 1 =

 

 

0

1

 

 

 

 

 

 

Û)22 - J

 

 

 

 

Поскольку отсутствуют

какие-либо оценки элементов матриц Г

и Q был сделан

ряд предположений относительно величин этих

элементов, и определитель А выражения (в) максимизировался симплексным методом; соответствующие результаты приведены в табл. П.8.4.3. Для вычисления а 1 2 использовалось соотношение

сг12

Рі 2 - № 1 ) ^ -

За немногими исключениями, практически все пары экспери­ ментальных точек приходятся на нулевую мольную долю компо­

нента С, что довольно неожиданно. Неоднократно

появлялись

вполне определенные точки, например х

= 0,280 и хіВ

= 0,720,

независимо от того, какие делались

предположения об элементах

Г и ÇÏ. Учитывая, что значения ©и

= CU2 2

= O O H C Ö I 2

=

( Ö 2 1 = 0

соответствуют случаю, когда заранее неизвестна точность оценок

ßtj,

но

известно, что сами параметры некоррелированы,

можно

оценить

влияние предполагаемой

корреляции между

моделями

или ее отсутствия по наблюдениям

в одном эксперименте.

Если

никакой

корреляции нет, влияние

высокой точности (а2 = 10_ 3 )

по

сравнению с низкой точностью

2 = 103) можно

проследить

по четвертой и пятой строкам части а) табл. П.8.4.3. «Направление экспериментирования» следует выбирать так, чтобы получить информацию о параметрах, известных с наименьшей точностью. Аналогично по другим частям этой таблицы можно изучить априорную информацию другого рода.

8.5. П О С Л Е Д О В А Т Е Л Ь Н Ы Е П Л А Н Ы Д Л Я Р А З Л И Ч Е Н И Я ( Д И С К Р И М И Н А Ц И И ) М О Д Е Л Е Й

Часто для описания некоторого процесса экспериментатор предлагает не одну, а несколько моделей, и тогда естественно поставить вопрос, можно ли выбрать наилучший план эксперимен­ та с точки зрения различения (дискриминации) предлагаемых моде­ лей. Кроме того, какие эксперименты позволят с наименьшими усилиями получить наибольшую информацию, с тем чтобы, опи­ раясь на некоторый количественный критерий, можно было решить, какая модель лучше? Ясно, что лишь получение данных в определенной критической области позволит установить различие между двумя (или несколькими) моделями. Например, на фиг. 8.5.1


594

Глава 8

для двух моделей с несколькими коэффициентами показаны гипотетические отклики, которые представляют собой некоторую функцию одной независимой переменной. Любые данные, получен­ ные в заштрихованной области, не дадут никакой полезной информации, опираясь на которую исследователь смог бы сделать выбор между моделями А и В; данные, полученные в незаштрихованной области, позволят сделать это.

Прежде чем перейти к случаю нескольких моделей, рассмот­ рим, как различить между собой две модели. Пусть исследователь

Область отсутствия

различия

Зависимая

переменная

Независимая переменная

Ф и г . 8.5.1. Пример различения моделей.

выполнил n экспериментов и нашел две возможные модели, кото­

рые могли бы описать изучаемый процесс. После

n опытов

он

не

в

состоянии решить, какая модель

лучше; ему

хотелось

бы

в (п

+

1)-м опыте собрать такие данные,

которые помогли бы ему

выявить наиболее четкое различие между этими моделями. Какие новые экспериментальные условия, т. е. значения независимых переменных, ему следует выбрать, чтобы достигнуть своих целей?

8.5.1. Различение моделей с одним

откликом

Хантер и Рейнер [33] предложили выбирать (п +

1)-ю экспе­

риментальную точку, используя максимально правдоподобные оценки параметров, полученные после завершениям опытов, с тем чтобы вызвать максимальное искажение модели при попытке одно­

временно

объяснить старые

данные

и новое

наблюдение.

Пусть

рассматриваются модели г/, и у2-

Тогда, если правильной моделью

является

Уі, значения х ( П

+ І )

выбирают из условия максимума

S2,

а если

правильна

модель

у2

— из

условия

максимума

S у,

где

х("+і)

— вектор,

элементами

которого служат

независимые пере­

 

 

менные

в

(п + 1)-м

опыте;

 

 

 

 

Sr=

S {Ym

-

Y™)2,

r =

1,2;

 

 

 

 

r

У ( П ) — значение и-го измеренного отклика;


 

Стратегия

эффективного

экспериментирования

 

595

Yrm

предсказываемый

отклик

для модели г (г =

1,2)

после

 

проведения п

опытов.

 

 

 

(Заметим, что номер эксперимента теперь заключен в круглые

скобки, чтобы не писать черезмерно большого числа

индексов.)

Последовательный план по существу нечувствителен к

тому,

какая

модель правильна;

следовательно, можно

предложить

некоторый практический прием. Он состоит в том, что выбирается

такой вектор х ,

п + 1 ) ,

который максимизирует величину

 

 

S =

[ y f + » ( b ( n ) ) - Y l n + 1 ) (b ( n ) )]2 ,

(8.5.1)

где

Y £ n + 1 > ( П ) )

— предсказываемое

значение

отклика для

(п

-f- 1)-го наблюдения в r-й модели, в котором использованы оцен­

ки параметров,

полученные из предыдущих п опытов.

 

Кульбак [34] предложил для различения двух моделей исполь­

зовать некоторую

дискриминантную

функцию,

т. е. функцию,

которая позволяет решить, какое из двух состояний является

истинным. Пусть Y будет

случайной величиной, распределенной

с плотностью вероятности

ру (у), если справедлива гипотеза

Ну,

и с плотностью вероятности р2 [у), если справедлива гипотеза

Н2.

Эти гипотезы будут состоять в том, что правильной моделью являет­ ся соответственно модель 1 или модель 2. Тогда можно сказать, что

. величина

In Рі (У)

Рі(У)

служит в некотором смысле мерой предпочтительности выбора Ну перед Н2 или с точки зрения теории информации мерой инфор­

мации в пользу гипотезы Ну по сравнению с гипотезой

Н2.

«Вес

показаний», или математическое ожидание информации

в пользу

выбора Ну, определяется выражением

 

 

оо

 

 

/ ( 1 : 2 ) = \ py(y)lnJ^Ldy.

(8.5.2а)

—О

Аналогично математическое ожидание решения в пользу выбора Н2 равно

О

/ ( 2 : 1 ) = J р2(у)In j ^ d y .

(8.5.26)

— о е

Чтобы различить между собой два состояния, Кульбак предложил максимизировать величину

оо

/ ( 1 , 2) = / ( 1 : 2 ) + 1(2в 1 ) = j [Pi(y)-Pz(y)]\n^dy.

(8.5.2в)


596

 

 

 

 

Глава

8

 

 

 

Согласно

линейному анализу

(гл. 5 и 6), далее можно

пред­

положить, что (п + 1)-е

наблюдение

нормально

распределено

относительно

своего математического

ожидания

для модели г,

Щ {Yrn+iy}

= угп+1\

с дисперсией

о\- Кроме того, величина

угп+Х)

распределена

в некоторой

локальной

(линеаризованной) области

относительно своего предсказанного значения Y(rn+1)

с дисперсией

öl- Следовательно, величина У<п+1> распределена

относительно

у(п+і) с

д И С П ерсией о\ + а£.

Можно заключить, что плотность

распределения

вероятности

У<п+1 »

для г-й модели

равна

 

 

 

 

1

г

i

(Y<n+l>_y("+t))2

 

2.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(8.5.3)

Величины г/г и о"г соответствуют среднему значению и дисперсии У, если H = НІ или альтернативно і / = і/ 2 - Кульбак показал, что после подстановки выражения (8.5.3) в формулы (8.5.2) и ин­ тегрирования получается

/ М - ^ - ± 1

°Y + q

I , 1

q y + q i

1 , 1 (f

i " + 1 > - * ? + 1 ) ) 2

i ( l . Z ) - 2 i n

ст^_|_аа

-Г 2

о-^ +

ст!

2 + 2

o-y + a§

^ 9 .

^ - i

_ l

° r + g i

2

1

+

1 , 1 ( Г < Г + 1 ) - П " + 1 ) ) 2

2(4.1)

2

m

o-^^o-i +

а^ + о*

2 + 2

o-y + crf

J ( l , 2) = 4 . ( o î - o O ( - ^ — ^ р ) ^ -

Итак, зная результаты n наблюдений, величины / или / можно максимизировать по независимым переменным модели для того, чтобы найти следующий вектор х для новой экспериментальной серии.

Бокс и Хилл [35] предложили улучшенный вариант дискриминантных функций Кульбака, в которых учитывается априорная вероятность. Здесь нет возможности проследить за рассуждения­ ми Хилла [36]; вместо этого для получения такого же результата используем эвристические соображения. Для того чтобы полностью использовать имеющуюся априорную информацию о справедли­ вости каждой из моделей, помимо вычисления оценок коэффициен­ тов, входящих в отклик Yrn+1), представляется разумным приписать величинам / (1:2) и / (2:1) веса, равные соответствующим априор­ ным вероятностям Р^ и Р{гп) того, что правильной моделью являет­ ся соответственно модель 1 или модель 2.

Теперь усложним рассматриваемую задачу, предполагая, что существует несколько конкурирующих моделей, различить кото-