Файл: Галушкин, А. И. Синтез многослойных систем распознавания образов.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 17.10.2024

Просмотров: 107

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Выражение для условной функции риска имеет следующий вид:

N

г(г)=

Г l(xk, е) J • • • \G(xk, x)f'(xk)dxdxk.

 

 

xk

 

х

 

 

 

 

Средняя функция

риска

 

 

 

 

R = J r(e)/e(e)de=

J

/£(е)

J

/ (xk, e) f • •

x) X

30

30

 

xk

 

x

 

 

 

 

 

 

N

 

 

X f' (x/e) dx dxkds =

J

j . . . J G (xk, x) X

 

 

 

 

 

**

*

 

 

X

J /e(e)/(**, e)f'(x/e)de

dxdxh.

 

Введем обозначение

 

 

 

 

 

gs (x, xk) =

J

/8 (e) l (xk, e) f

(x/e) de.

 

— CO

Тогда выражение для средней функции риска примет следующий вид:

 

N

R = J J-

-$G(xk, x)g3(x, xk)dxdxk.

xk

x

Учитывая свойства функции G (xk, x), указанные и ис­ пользуемые ранее, получаем:

 

N

 

R = f •

• fga[X, p (X)] dx,

J

X

J

где xk =s P (x) — оптимальная модель CP. Решение задачи минимизации R дает выражение для оптимальной модели СР в следующем виде:

dg3 (х, хк)

=

0

 

 

дхк

xh=PM

 

 

 

или с учетом конкретного вида функций

(х,

xk)

OO

 

 

 

 

j /в (e) /' (x/e) - ~ l ( xk> e)

=P(x)

de =

0 .

dxk

 

 

 

 

— Э С

53


Это наиболее общее выражение для оптимальной модели СР, из которого легко получить любой рассмотренный выше случай.

Для решения практических задач функция распределения / е (е) может в простейшем случае быть представлена или аппрокси­

мирована суммой одномерных нормальных законов с различными дисперсиями и математическими ожиданиями, а также любым из известных типовых законов распределения вероятностей.

2-3. Оптимальная модель СР для многомерных сигналов s (п) и xk (п)

Выражение для условной функции риска в случае кон­ тинуума решений СР имеет следующий вид:

N N

г (s) =

Г. . . Г / (хА,

е) Г. . . ГG (xk, х) f

(х/е) dxdxk.

 

xk

х

 

 

Отсюда имеем среднюю функцию риска

 

N*

N*

N

 

Я =

• -J> (e)/e( e ) d e = |. •

.Jf“

G(xk, Х)х

 

N*

 

 

 

X

J - • -J7e(e)J(**. s)f, (xls)de

dx dxk,

или, иначе, при введении дополнительных обозначений

N*

N

R=z$- • ’Я '

• - f G (x** x)§(xk> x)dxdxk.

xk

х

Как указывалось выше, Е представляет собой прост­ ранство указаний учителя СР; N* — размерность Е и вы­ ходного сигнала системы. Остановимся на свойствах функ­

ции G (xk, х). Если Л^* =

1

и СР имеет

/СрДэешений, функ­

ция имеет вид:

 

 

 

 

 

 

1 , если

* £ S ^ Kp^ (x )> 0

,

 

О,

если х §

( х )> 0

,

а для континуума решений:

 

 

 

 

С(х, * ,) _ (

U

есл"

*‘ =

Р <Х)'

 

1 0 ,

если

хк =/=Р (х).

 

54


Для многомерных пространств Е и X k преобразование, описываемое системой, может быть записано в следующем виде:

*1* (n)

'Pi(x) "

хк (п) = Р [х (п)] или

 

_XN*k(n)_

V W __

Если N* = const и СР имеет дискретное число выход­ ных градаций, т. е. Кр решений, функция имеет вид:

G fх, kiр

1,

если x £ S ^ lp

kN*p) (х)> 0,

•’ ^N*р)

если х (£ 5 ^ 1р

fcjv*p^(х)> 0,

 

О,

и соответственно для континуума решений СР:

G (х, xw . . ., xN, k) П,

если

xk (п) = Р [х(п)],

(О,

если

хк (п) =/=Р [х(п)].

С учетом замечаний о функции G можно записать выра­ жение для средней функции риска следующим образом:

 

 

N

 

 

 

R = f ^ \ g [ P ( x ) , x ] d x =

 

 

 

X

 

 

N

 

N*

 

 

= I ■•

• I J '

■• f fz (s) UP (x)., e] f (х/г) ds dx.

X

 

E

 

 

Оптимальная

модель

CP определяется

выражением

f ~ f

<*)

 

Й ' <x*'

Л = °-

где производная — / (xk,

e)— функция двух переменных:

xk и s.

дхк

v

 

 

 

 

 

 

Пусть каждый из N* выходных каналов имеет К0 града­

ций по амплитуде. Тогда выражение для условной функ­

ции риска имеет следующий вид:

 

 

г [kv . . . , kNt) =

• • •

к.

J (^ip’ • •

^n *p' ^i> • • ■

2

2

kN„)

J • -

- J

f'

[xls = klt

. .., kN,)dx.

s (kip......^N*p) (x)>0

 

 

 

55


Отсюда получаем среднюю функцию риска Ко к,

N

• • •>

 

 

 

' •’ ^N*)

 

J ' • • j

X

 

 

 

 

 

 

 

s ( fei p ....... ftjv * p )(x)>0

 

 

 

 

x

f' {xk = kv

. . .,

kNt) dx.

 

 

 

При введении

дополнительных

обозначений

имеем:

 

Ко

 

*.

 

N

N

 

 

 

 

 

1\0

/----- -

 

- • >kfj*р> х^ dx,

■ 2

 

J - - - J

 

* ( V

*ip_ 1

 

*ЛД*р=1 s(feip.....*К*р)(х)>0

 

 

 

где

 

 

 

Ко

 

Ко

 

 

 

 

 

 

 

 

 

 

h

Ъ

 

 

 

 

 

 

 

 

 

***

■’

^

‘Р’

 

 

 

 

 

•» KN * р’

 

 

 

 

 

 

 

 

• • •> ^ / v * ) / E (^ 1’

^ N * ) f

( Х ^6 — ^1’ '

' ^ N * ) '

 

Результат минимизации средней функции риска в дан­

ном случае:

 

 

 

 

 

 

 

 

 

 

S (*lp.... *"’р)( х ) = £ ( С

. . . . k"N*p,

х ) -

 

 

 

 

 

£ (Л р’ • • •’ kN*р, х) > 0 ,

 

 

 

{Щр' •••> К/*р) =

°)>

 

(Ко. •••,

К0),

т. е. всего

 

 

 

N*

 

 

~N*

 

 

 

комбинаций.

 

 

 

 

 

 

 

 

Отметим, что, в частности, можно рассматривать случай

К о = 2 как

наиболее

просто

реализуемый.

 

 

2-4. Априорная информация о входном сигнале СР

 

в режиме самообучения

 

 

 

 

 

 

Задача самообучения

отличается

от задачи

обучения тем,

что

в режиме самообучения в СР не указывается принадлежность об­ разов к тому или иному классу. В случае обучения СР получаем информацию об организации внутри классов в виде указаний учи­ теля. В случае самообучения эта информация должна быть зало­

56


жена в СР априори. Наверное, разумно при определении класса в режиме самообучения наложить следующее ограничение. Каж­ дому классу образов должна соответствовать одна мода функции плотности распределения вероятностей входного сигнала х (п) СР.

От априорной информации о входном сигнале систем распозна­ вания образов существенно зависят методы решения задачи само­ обучения. Указанную априорную информацию о входном сигнале

можно с методологической точки зрения разделить на три основ­ ные части.

1. Априорная информация о числе классов или, что то же са­ мое, информация о числе мод функций плотности распределения входного сигнала. На основании данной априорной информации и предположения о том, что каждый класс имеет свое собственное одномодальное распределение, распределение входного сигнала системы распознавания образов может быть представлено в виде

К

 

/ 0 0 =

2

Pkfk 0 0 .

(2-22)

 

 

*=1

 

где х (п) — входной

сигнал

системы распознавания

образов;

f (х) — плотность распределения

входного сигнала; fk (х) — плот­

ность распределения

образов

в

k-м классе; р^ — вероятность по­

явления образа из k-ro класса; К — число классов.

 

2.Априорная информация о виде плотностей распределения образа в каждом из классов.

3.Априорная информация о величинах вероятностей появле­ ния образов из различных классов р*.

Априорная информация о числе классов К (мод функции плот­ ности распределения входного сигнала) может быть трех типов (по мере уменьшения априорной информации): точно известно К — число классов (т. е. мод); число К классов (мод) не более заданного

/Смак<б

число К классов

(мод) неизвестно.

В первом случае необходимо создание алгоритма решения за­

дачи

самообучения для

конкретного числа классов. Во втором

случае необходимо создавать алгоритм самообучения, который, будучи оптимальным для максимального числа классов К макс,

будет оптимальным и для меньшего, каким и может оказаться дей­ ствительное число классов. В третьем случае, пожалуй, единст­ венным путем качественного решения задачи самообучения яв­ ляется построение алгоритма самообучения для постепенно уве­ личивающегося числа /Смаке- В таком алгоритме нужно вводить

критерий остановки алгоритма при увеличении максимального числа классов /Смаке- Критерием остановки может являться либо

отсутствие увеличения качества самообучения при увеличении /Смаке, либо невозможность реализации алгоритма ввиду его слож­

ности.

Априорная информация о виде распределения для каждого из классов может быть трех типов (по мере уменьшения): точно (с точ­ ностью до конечного числа неизвестных параметров) известен вид распределения; вид распределения неизвестен, но может быть при­ нята некоторая аппроксимация распределения, которая, естественно, в общем случае приводит к тем большим ошибкам, чем больше не­ соответствие реальных и аппроксимирующих распределений; вид распределений неизвестен.

57