Файл: Химмельблау Д. Анализ процессов статистическими методами.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 09.04.2024

Просмотров: 741

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

388

 

Глава 6

 

 

 

метров bi

и b2- В пространстве параметров контуры уровней

значений

суммы квадратов

ф будут уже не

эллиптическими,

а могут иметь вид, показанный на фиг. 6.2.1, б.

 

Задача нелинейного оценивания, выраженная в форме условия

минимума

функции (6.2.1), является

просто задачей

оптимизации

в пространстве параметров,

когда

величины Yt

и xh

считаются

заданными

числами, а параметры

ß;- — переменными. Многие

методы решения задачи детерминистической нелинейной оптими­ зации можно с успехом перенести и на данную задачу. Согласно общепринятой точке зрения, методы оптимизации делятся на два широких класса: 1) методы без производных и 2) методы с произ­ водными. Если в процессе нахождения минимума ф требуется вычислять частные производные от ф (по ßÄ ), то соответствующий метод относится к классу методов с производными; в противном случае он называется методом оценивания без производных.

Здесь будут рассмотрены пять из наиболее эффективных мето­ дов оптимизации, а именно:

1.Методы без производных: а) симплексный метод; б) метод прямого поиска.

2.Методы с производными:

а) метод Гаусса — Зайделя; б) градиентные методы;

в) метод Маркуардта.

Все эти эффективные методы являются итерационными и соответ­ ствующие расчеты лучше всего выполнять на цифровых или гибридного типа вычислительных машинах. Другие методы нели­ нейной оптимизации описаны в работах [1, 2].

Причину, по которой необходимо использовать итерационные методы оптимизации и не удается получить оценки параметров нелинейной модели непосредственным применением классических

расчетов, можно

пояснить

на следующей

модели:

 

 

п

= * + ß 2

 

 

(6.2.2)

или

 

 

 

 

 

 

 

 

 

 

(6.2.3)

Сумма квадратов

ненаблюдаемых ошибок

ег равна

 

n

п

п

 

п

 

 

 

XiYt

7 + PîS

(6.2.4)

 

 

 

t=l

г=і

i=l

 

 

 

 

Вычисляя частные производные от выражения (6.2.4) сначала по ß b а затем по ß 2 и приравнивая нулю каждую из частных произ­ водных, получаем два нормальных уравнения, содержащих оцен-


Нелинейные модели 389

ки Ьі и Ъ2:

п

2

П

 

 

і=1

(^i + ö 2 ) 2

Ä-I а;; + о2

ѵ

;

 

І=1

 

 

n

2

n

 

 

t=l

 

t=l

 

 

Заметим, что уравнения (6.2.5) и (6.2.6) сами являются нели­ нейными, так что первоначальная задача оптимизации преврати­ лась в задачу определения корней этих уравнений, которая столь же, или даже более трудна, чем задача оптимизации. Так как для определения корней системы нелинейных уравнений все равно приходится использовать некоторую итерационную процедуру, по-видимому, проще применить итерационные методы непосред­ ственно для определения минимума первоначальной целевой функций (6.2.4). Теперь рассмотрим два метода минимизации без производных, которые отличаются гибкостью и просты в исполь­ зовании.

6.2.1. Методы прямого поиска

С точки зрения исследователя, метод прямого поиска, предло­ женный Хуком и Дживсом [3], обладает при нелинейном оценива­ нии рядом преимуществ *). Не требуется вычислять никаких производных, а процедура хорошо укладывается в логическую схему. Недостаток прямых методов состоит в том, что они не так быстро приводят к результату, как методы с производными или симплексный метод, особенно когда число параметров велико.

 

Алгоритм

прямого

поиска

состоит

в

следующем.

Нужно

выбрать

для

всех параметров ß7- начальные

(предполагаемые)

значения 2 ) Ь< 0 ) вместе

с некоторыми начальными

приращениями

АЩ\

Функция

ф сначала

вычисляется в

начальной

(базовой)

точке Ь< 0 > . Затем каждое

значение

bf}

из набора Ь( 0 )

последова­

тельно заменяется на b^m

+ Abj0 > ,

и если при

этом

значение ф

улучшается,

то в качестве новой оценки Цѵ

параметра

ßj при­

нимается величина 6j0 > +

Abjm.

Если значение ф не

улучшается,

испытанию подвергается величина fej0) Abf\

Если

для

каждого

из

значений

Ь\0>

± АЬ^

никакого

улучшения

не

наблюдается,

то

Ь\1}

=

Ь)0).

Этот процесс

повторяется

для

всех параметров ß7-,

х ) Этот метод подробно описан в книге Уайльда Д ж . , Методы поиска экстремума, изд-во «Наука», 1967, где он называется методом конфигура ­ ций.— Прим. ред.

2 ) Все промежуточные оценки параметров

модели

будут обозначаться

к а к Ь< >; наилучшую оценку ß дает последний

вектор

последовательности.



390 Глава 6

что составляет серию пробных шагов. Новые оценки параметров образуют некий вектор в пространстве параметров, который задает направление, ведущее к уменьшению ф Вдоль этого направле­ ния осуществляется ряд рабочих шагов до тех пор, пока значение ф не перестает уменьшаться. Длина рабочих шагов по каждому из координатных направлений пропорциональна числу предше­ ствующих успешных шагов в этом направлении. Если ни один из рабочих шагов не улучшает значение ф, то для определения нового направления производится новая серия пробных шагов. Если пробные шаги не выявляют нового направления, приращения Abj постепенно уменьшаются до тех пор, пока не будет найдено новое направление или пока каждое из приращений не станет меньше некоторого предварительно выбранного допустимого откло­ нения. Невозможность улучшить значение ф при очень малых Abj указывает на та, что достигнуто локальное оптимальное значение.

Для определения того момента, когда поиск следует прекра­ тить, проводятся две основные проверки. Одна из них касается относительного изменения индивидуальных оценок параметров Abj, т. е. размера шага. Желаемое минимальное значение относи­ тельного изменения переменных вводится в машинную программу и проверка проводится после каждого неудачного пробного шага. Другая проверка выполняется после каждого пробного или рабо­ чего шага; изменение значения ф сравнивается с заданной величи­ ной, введенной в машинную программу. Пробный или рабочий шаг считается неуспешным, если он не приводит к изменению значения ф для предыдущего шага на величину, превышающую заданное значение. Вычисления прекращают, когда на заданном числе циклов обе проверки дают положительный результат.

В схему поиска очень легко ввести простые ограничения. Например, если требуется ограничиться лишь положительными значениями параметров bj, что бывает необходимо в ряде инженер­ ных задач, где они описывают физические величины, которые не могут принимать отрицательных значений, в машинную програм­ му можно ввести ограничения

h < bj < Uj,

где lj — нижняя граница поиска для bj, Uj — верхняя граница поиска для bj, и выбрать Z7- и Uj равными соответственно нулю и некоторому большому числу.

*) Новые оценки образуют вектор Ь( 1 >, соответствующий второй базовой точке. Тогда вектор Ы 1 ' Ь<°> определяет (по терминологии Уайльда) п е р ­ вую конфигурацию и задает направление движения по «дну оврага», ведущее к уменьшению величины ф.— Прим. ред.


Нелинейные

модели

391

Пример 6.2.1. Оценивание методом прямого поиска

Оценивание нелинейных моделей методом прямого поиска можно сравнить с линейным оцениванием, если эти модели удается линеаризовать подходящими преобразованиями и затем рассмо­ треть с помощью методов линейного анализа. Такого рода сравне­ ние проводится в данном примере; здесь также указывается на ряд типичных проблем, с которыми приходится сталкиваться при итерационном нелинейном оценивании. Были имитированы 11 наборов данных для модели

 

 

т)

=

ах^х&ь,

 

 

 

 

 

или

 

 

 

 

 

 

 

 

 

 

 

lg г) == lg а

+

ßi lg xi

+

ß 2

lg

x2,

 

 

для чего произвольно выбирались а =

1,0,

ß t

== 3,0

и ß 2 =

0,5.

Затем в значения г) вводились возмущения, представляющие

собой

случайные

нормальные

отклонения

с

дисперсиями

10 и

100,

а также равномерные отклонения на

± 0 , 1 , ± 1 и

± 1 0 %

при

случайном

распределении

знаков.

 

 

 

 

 

 

Д л я подгонки модели к этим имитированным данным исполь­ зовались три критерия, требующие минимизировать соответствен­ но выражения (а) — (в):

S O ' i - m ) 8

,

(а)

і=1

 

 

S(lgyi-lgtiO". (в) i=l

Результаты приведены в табл. П.6.2.1 для двух исходных начальных векторов. Третий критерий, связанный с выражением {в), используется при линейном оценивании методом наименьших квадратов. Во всех расчетах начальный относительный размер шага для каждого Abj произвольно устанавливался равным 0,30. Накопленный опыт оценивания методом прямого поиска показы­ вает, что выбор Abj = 0,30 представляется разумным компромис­ сом между слишком большим начальным размером шага, который придется, возможно, существенно уменьшить прежде, чем начнет уменьшаться величина ф, и слишком малым размером шага, кото­ рый может привести к большим затратам времени, ибо потребуется сделать очень много малых шагов. Критерием прекращения по­ иска являлось изменение значений каждого из оцениваемых параметров, меньшее 0,01%. При использовании для вычисления