Файл: Кориков А.М. Математические методы планирования эксперимента учеб. пособие.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 27.06.2024

Просмотров: 140

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

ным коглпонентом, в этом сыысле оказываются более устойчи­ выми, если, конечно, оэш главные компоненты вычислялись по наиболее важным независимым переменным. Например, в ста ­

тье П.Ф.Андруковича [ 4 ^ методом главных компонент была про­ изведена ортогонализации матрицы независимых переменных, затем коэффициенты регрессии вычислялись по всем главным компонентам и компоненты с незначимыми коэффициентами рег ­ рессии отбрасывались.

§ 9 - 3 .

Ф а к т о р н ы й

 

 

а н а л и з

 

 

 

Здесь выбирается небольшое число факторов,

способных

" о б ъ я с н и т ь "

корреляционную

матрицу. Нужно

найти

м и н и м а л ь н о е

ч и с л о

 

таких'случайных

вели­

чин ( ф а к т о р о в )

X ,

1

 

I

, после

учета

которых

 

 

 

 

•м

Ji

 

J

m.

 

 

 

 

к о р р е л я ц и о н н а я

м а т р и ц а

х

-перемен­

ных

п р е в р а т и т с я

в

 

д и а г о н а л ь н у ю ,

ляыми

словами, это

значит, что после учета-действия пг фак­

торов все

корреляции, между х~переме«тадиэгоякны стать

не ­

значимыми.

 

 

 

 

 

 

 

 

 

 

 

О с н о в н а я

м о д е

л ъ

 

факторного

анализа

за ­

писывается

следующей системой

равенств

 

 

 

 

 

 

 

т.

 

 

 

 

 

 

 

 

 

Здесь

jj;—j

 

-ft простой фактор; m . - заданное

число

простых

фактороЕ;

Ь^-

остаточный

член с

дисперсией

< э 8 { Ь )

, дейст­

вующий только

на хи,

часто его

называют специфическим фак­

тором.

 

 

 

 

 

 

 

™*~ *"^~

 

 

в


- 2 5 5 -

Коэффициенты t^.^ называются нагрузкой с -й переменной на j -й фактор, иди нагрузкой J -го фактора на L переме-

менную. Вначале ради простоты будем полагать, что факторы 4 j взаимно независимы. Далее предположим, что случайные

величины

L.

не

зависят друг от друга, а также от всех фак-

торов

j

=

1,2,...,(П'.-

Разработаны приемы, позволяющие определять минималь­

ное число простых факторов, необходимое, для объяснения ко­ вариационной матрицы (подробнее см. [19]).

Дадим теперь представление об

 

о с н о в н о й

 

т е ­

о р е м е

факторного анализа. Допустим, что исходные пе­

ременные х 1

и хг

имеют один простой фактор | . ; тогда

лег­

ко показать,

что

 

 

 

 

 

 

 

В общем случае,

когда к. переменных имеют

m простых

факторов, можно написать

 

 

 

 

 

Ч

 

*, **) -

 

К *и Ч Л ^ • • •

 

 

 

Это основное соотношение факторного анализа показыва­

ет, что

 

к о э ф ф и ц и е н т

к о р р е л я ц и и

 

л ю б ы х

 

д в у х

н е з а в и с и м ы х

п е р е м е н ­

н ы х

м о ж н о

 

в ы р а з и т ь

с у м м о й

н р о -

и з в е д е н и й

 

н а г р у з о к

н е к о р р е л и ­

р о в а н н ы х

ф а к т о р о в ;

 

 

 

 

Построим матрицу F 0 размерности

( KTtnv) из "строк,

эле­

ментами которой служат нагрузки на факторы. Какая-нибудь,

скажем,

t

строка будет вметаьввд

 

 

 

 


-2 о 6 -

то г д а в матричной форме основная теорема запишется

так:

Я = ¥ 0

Т0 Т .

 

оо

З а д а ч а ' ф а к т о р н о г о

а н а л и з а ,

к а к

м ы

в и д и м , з а к л ю ч а е т с я

в л и . н е й -

н о м

п р е о б р а з о в а н и и

К. - м е р н о г о '

п р о с т р а н с т в а

в т - м е ^ н о е .

 

Ее нельзя решить однозначно. Представление корреляци­

онной матрицы факторами,

как говорят, ее факторизацию, мож­

но произвести бесконечно

большим числом различных

способог.

Если нам удалось произвести факторизацию с помощью некото­

рой матрицы

F 0 , то любое

ее линейное ортогональное преоб­

разование (ортогональное

вращение) приведет к такой же

факторизации.

 

 

 

Может случиться, что первая факторизация окажется не ­

благоприятной, т . е . трудно поддающейся интерпретации.

Тог­

да исследователь может,начать "вращать" факторы. Он шлет

это дехать до тех пор,

пока не получит результаты, легко

поддающиеся физической

интерпретации.

 

Проиллюстрируем основную идею факторного анализа п р и -

м е р о м, в

котором его применили к 'задаче .металловедения

[ 2 0 ] . .Там была сделана

попытка изучить взаимную связь

шес­

ти показателей, характеризующих механические свойства метал­

ла:

Н в ~ твердость по Бринелю; 6 ^ - прочность на разрыв;

• 6 Т

- предел текучести; у - относительное сужение; S- от -


т

- 2 5 7 -

носительяое удлинение, об ^ - ударная вязкость;

Изучению подвергалась выборка из 79 сортов сильно ле ­

гированных сталей. На основании статистического анализа,-

на деталях которого до здесь останавливаться не будем, бы­

ло показано, что результата можно представить двумя факто­

рами.

Далее выяснилось, что переменные 6 д ж <&t линайно-за- висаш, и поэтому одна из них - 6 Д - бела в дальне8ивм| •

опущена.

Ф а к т о р I

Ф А К Т О Р 1

Рио.9.2

Па рис.9.2 в координатной системе, задаваемой двумя

факторами, исходные переменные представлены 5 векторами.

Координаты конца каждого вектора задаются нагрузками соот­

ветствующих переменных на факторе.

Из рис.9.2 следует, что переменные естественно представлять не прямоугольными, а косоугольными (коррвлировая-

ннш) факторами (рио.9.3)^

В результате проведения факторного анализа были одела-

-2 3 6 -

шследующие выводы; Векторн-лризнаки группируются по на­

правлению в два пучка, которые выражают прочностные ( Н в . 6 Т ) и пластические ( Y , <**к) свойства металлов."

Рис.9.3

Интересно отметить, что вектор признака о*" обратен по на­ правлению векторам пучка, выражающим свойство прочности.

Отсюда авторы делают вывод, что это веское основание считать^ о* характеристикой' разупрочнения," вопреки принятой сейчас ее трактовки как характеристики пластичности.

Этот пример служит хорошей иллюстрацией того, что пред­

ставление результатов методом факторного анализа позволяет •исследователю лучше осмыслить материал, чем представление,

задаваемое в терминах обычной парной корреляции.

В.заключение напомним еще раз, что как метод главных

компонент, так и метод факторного анализа - это лишь мето­

ды, еонованные

на линейных моделях

и нормальном

законе

распределения.

'

~

"

•—~

-


 

 

-

2 3 9 -

 

 

 

§ 9 - 4 . Д и с к р и м и н а н т н ы й

а н а л и з

КовариачЕОннке тдатркцы используются и в

задачах

д и-

с к р и м и н а ц и и ,

когда выборку,

задаваемую многомер­

ным вектором

наблюдений

х?=

( х , , х г

, x j

^ , надо

от ­

нести к одной

из К -мерных нормально распределенных гене-

,ральных совокупностей. Напомним, что в одномерном случае • параметры нормального распределения задаются двумя скаляр-

кши величинами - иагештическим ожиданием ш деспероией» В многомерном случае первым параметром служит вектор ма-

тематических ожиданий j x , вторим - ковариационная матри­ ца I .

5-дачи такого рода встречаются повседневно. Простей­ ший пример подобных задач ? диокримкаалия по результатам призмных экзаменов или любой другой системы тестов. Каж­

дый абитуриент характеризуется вектором значений экзамена­

ционных или тестовых оценок. Этот вектор надо отнеота к одной из двух генеральных совокупностей. Второй пример -

медицинская диагностика, где пациент опять-таки характери­ зуется многомерным вектором признаков и т.д.

Возможна и иная постановка задачи - к л а с с и ф и ­

к а ц и я . В этом случае, имея множество наблюдений, за­

данных шогомерными векторами, нужно разбить их на группы

так, чтобы была достигнута максимальная однородность

внутри групп и минимальная - между группами. Такие задачи• решаются методом кластеранализа. Так,например, в биологи­ ческих или медицинских исследованиях можно поотавить зада-