Файл: Галушкин, А. И. Синтез многослойных систем распознавания образов.pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 17.10.2024
Просмотров: 107
Скачиваний: 1
Выражение для условной функции риска имеет следующий вид:
N
г(г)= |
Г l(xk, е) J • • • \G(xk, x)f'(xk)dxdxk. |
|
|||||
|
xk |
|
х |
|
|
|
|
Средняя функция |
риска |
|
|
|
|
||
R = J r(e)/e(e)de= |
J |
/£(е) |
J |
/ (xk, e) f • • |
x) X |
||
—30 |
—30 |
|
xk |
|
x |
|
|
|
|
|
|
|
N |
|
|
X f' (x/e) dx dxkds = |
J |
j . . . J G (xk, x) X |
|
||||
|
|
|
|
** |
* |
|
|
X |
J /e(e)/(**, e)f'(x/e)de |
dxdxh. |
|
||||
Введем обозначение |
|
|
|
|
|
||
gs (x, xk) = |
J |
/8 (e) l (xk, e) f |
(x/e) de. |
|
— CO
Тогда выражение для средней функции риска примет следующий вид:
|
N |
R = J J- |
• -$G(xk, x)g3(x, xk)dxdxk. |
xk |
x |
Учитывая свойства функции G (xk, x), указанные и ис пользуемые ранее, получаем:
|
N |
|
R = f • |
• |
• fga[X, p (X)] dx, |
J |
X |
J |
где xk =s P (x) — оптимальная модель CP. Решение задачи минимизации R дает выражение для оптимальной модели СР в следующем виде:
dg3 (х, хк) |
= |
0 |
|
|
дхк |
xh=PM |
|
|
|
или с учетом конкретного вида функций |
(х, |
xk) |
||
OO |
|
|
|
|
j /в (e) /' (x/e) - ~ l ( xk> e) |
=P(x) |
de = |
0 . |
|
dxk |
|
|
|
|
— Э С
53
Это наиболее общее выражение для оптимальной модели СР, из которого легко получить любой рассмотренный выше случай.
Для решения практических задач функция распределения / е (е) может в простейшем случае быть представлена или аппрокси
мирована суммой одномерных нормальных законов с различными дисперсиями и математическими ожиданиями, а также любым из известных типовых законов распределения вероятностей.
2-3. Оптимальная модель СР для многомерных сигналов s (п) и xk (п)
Выражение для условной функции риска в случае кон тинуума решений СР имеет следующий вид:
N N
г (s) = |
Г. . . Г / (хА, |
е) Г. . . ГG (xk, х) f |
(х/е) dxdxk. |
|
|
xk |
х |
|
|
Отсюда имеем среднюю функцию риска |
||||
|
N* |
N* |
N |
|
Я = |
• -J> (e)/e( e ) d e = |. • |
.Jf“ |
G(xk, Х)х |
|
|
N* |
|
|
|
X |
J - • -J7e(e)J(**. s)f, (xls)de |
dx dxk, |
или, иначе, при введении дополнительных обозначений
N* |
N |
R=z$- • ’Я ' |
• - f G (x** x)§(xk> x)dxdxk. |
xk |
х |
Как указывалось выше, Е представляет собой прост ранство указаний учителя СР; N* — размерность Е и вы ходного сигнала системы. Остановимся на свойствах функ
ции G (xk, х). Если Л^* = |
1 |
и СР имеет |
/СрДэешений, функ |
||
ция имеет вид: |
|
|
|
|
|
|
1 , если |
* £ S ^ Kp^ (x )> 0 |
, |
||
|
О, |
если х § |
( х )> 0 |
, |
|
а для континуума решений: |
|
|
|
|
|
С(х, * ,) _ ( |
U |
есл" |
*‘ = |
Р <Х)' |
|
1 0 , |
если |
хк =/=Р (х). |
|
54
Для многомерных пространств Е и X k преобразование, описываемое системой, может быть записано в следующем виде:
*1* (n) |
'Pi(x) " |
хк (п) = Р [х (п)] или |
|
_XN*k(n)_ |
V W __ |
Если N* = const и СР имеет дискретное число выход ных градаций, т. е. Кр решений, функция имеет вид:
G fх, kiр’ |
1, |
если x £ S ^ lp |
kN*p) (х)> 0, |
•’ ^N*р) |
если х (£ 5 ^ 1р |
fcjv*p^(х)> 0, |
|
|
О, |
и соответственно для континуума решений СР:
G (х, xw . . ., xN, k) — П, |
если |
xk (п) = Р [х(п)], |
(О, |
если |
хк (п) =/=Р [х(п)]. |
С учетом замечаний о функции G можно записать выра жение для средней функции риска следующим образом:
|
|
N |
|
|
|
R = f ^ \ g [ P ( x ) , x ] d x = |
|
||
|
|
X |
|
|
N |
|
N* |
|
|
= I ■• |
• I J ' |
■• f fz (s) UP (x)., e] f (х/г) ds dx. |
||
X |
|
E |
|
|
Оптимальная |
модель |
CP определяется |
выражением |
|
f ~ f |
<*) |
|
Й ' <x*' |
Л = °- |
где производная — / (xk, |
e)— функция двух переменных: |
|||
xk и s. |
дхк |
v |
|
|
|
|
|
|
|
Пусть каждый из N* выходных каналов имеет К0 града |
ций по амплитуде. Тогда выражение для условной функ
ции риска имеет следующий вид: |
|
|
|||
г [kv . . . , kNt) = |
/с |
• • • |
к. |
J (^ip’ • • |
^n *p' ^i> • • ■ |
2 |
2 |
||||
kN„) |
J • - |
- J |
f' |
[xls = klt |
. .., kN,)dx. |
s (kip......^N*p) (x)>0 |
|
|
|
55
Отсюда получаем среднюю функцию риска Ко к,
N
• • •> |
|
|
|
' •’ ^N*) |
|
J ' • • j |
X |
|
||
|
|
|
|
|
|
s ( fei p ....... ftjv * p )(x)>0 |
|
|
||
|
|
x |
f' {xk = kv |
. . ., |
kNt) dx. |
|
|
|
||
При введении |
дополнительных |
обозначений |
имеем: |
|
||||||
Ко |
|
*. |
|
N |
N |
|
|
|
|
|
|
1\0 |
/----- - |
|
- • • >kfj*р> х^ dx, |
||||||
• |
■ |
■ 2 |
|
J - - - J |
|
* ( V |
||||
*ip_ 1 |
|
*ЛД*р=1 s(feip.....*К*р)(х)>0 |
|
|
|
|||||
где |
|
|
|
Ко |
|
Ко |
|
|
|
|
|
|
|
|
|
|
h |
Ъ |
|
||
|
|
|
|
|
|
|
|
*** |
||
■’ |
^ |
‘Р’ |
|
|
|
|
|
•» KN * р’ |
||
|
|
|
|
|
|
|
|
|||
• • •> ^ / v * ) / E (^ 1’ |
^ N * ) f |
( Х ^6 — ^1’ ' |
' ^ N * ) ' |
|
||||||
Результат минимизации средней функции риска в дан |
||||||||||
ном случае: |
|
|
|
|
|
|
|
|
|
|
S (*lp.... *"’р)( х ) = £ ( С |
. . . . k"N*p, |
х ) - |
|
|
||||||
|
|
|
£ (Л р’ • • •’ kN*р, х) > 0 , |
|
|
|
||||
{Щр' •••> К/*р) = |
(° |
°)> |
|
(Ко. •••, |
К0), |
т. е. всего |
||||
|
|
|
N* |
|
|
~N* |
|
|
|
|
комбинаций. |
|
|
|
|
|
|
|
|
||
Отметим, что, в частности, можно рассматривать случай |
||||||||||
К о = 2 как |
наиболее |
просто |
реализуемый. |
|
|
|||||
2-4. Априорная информация о входном сигнале СР |
|
|||||||||
в режиме самообучения |
|
|
|
|
|
|
||||
Задача самообучения |
отличается |
от задачи |
обучения тем, |
что |
в режиме самообучения в СР не указывается принадлежность об разов к тому или иному классу. В случае обучения СР получаем информацию об организации внутри классов в виде указаний учи теля. В случае самообучения эта информация должна быть зало
56
жена в СР априори. Наверное, разумно при определении класса в режиме самообучения наложить следующее ограничение. Каж дому классу образов должна соответствовать одна мода функции плотности распределения вероятностей входного сигнала х (п) СР.
От априорной информации о входном сигнале систем распозна вания образов существенно зависят методы решения задачи само обучения. Указанную априорную информацию о входном сигнале
можно с методологической точки зрения разделить на три основ ные части.
1. Априорная информация о числе классов или, что то же са мое, информация о числе мод функций плотности распределения входного сигнала. На основании данной априорной информации и предположения о том, что каждый класс имеет свое собственное одномодальное распределение, распределение входного сигнала системы распознавания образов может быть представлено в виде
К
|
/ 0 0 = |
2 |
Pkfk 0 0 . |
(2-22) |
|
|
*=1 |
|
|
где х (п) — входной |
сигнал |
системы распознавания |
образов; |
|
f (х) — плотность распределения |
входного сигнала; fk (х) — плот |
|||
ность распределения |
образов |
в |
k-м классе; р^ — вероятность по |
|
явления образа из k-ro класса; К — число классов. |
|
2.Априорная информация о виде плотностей распределения образа в каждом из классов.
3.Априорная информация о величинах вероятностей появле ния образов из различных классов р*.
Априорная информация о числе классов К (мод функции плот ности распределения входного сигнала) может быть трех типов (по мере уменьшения априорной информации): точно известно К — число классов (т. е. мод); число К классов (мод) не более заданного
/Смак<б |
число К классов |
(мод) неизвестно. |
В первом случае необходимо создание алгоритма решения за |
||
дачи |
самообучения для |
конкретного числа классов. Во втором |
случае необходимо создавать алгоритм самообучения, который, будучи оптимальным для максимального числа классов К макс,
будет оптимальным и для меньшего, каким и может оказаться дей ствительное число классов. В третьем случае, пожалуй, единст венным путем качественного решения задачи самообучения яв ляется построение алгоритма самообучения для постепенно уве личивающегося числа /Смаке- В таком алгоритме нужно вводить
критерий остановки алгоритма при увеличении максимального числа классов /Смаке- Критерием остановки может являться либо
отсутствие увеличения качества самообучения при увеличении /Смаке, либо невозможность реализации алгоритма ввиду его слож
ности.
Априорная информация о виде распределения для каждого из классов может быть трех типов (по мере уменьшения): точно (с точ ностью до конечного числа неизвестных параметров) известен вид распределения; вид распределения неизвестен, но может быть при нята некоторая аппроксимация распределения, которая, естественно, в общем случае приводит к тем большим ошибкам, чем больше не соответствие реальных и аппроксимирующих распределений; вид распределений неизвестен.
57