Файл: Галушкин, А. И. Синтез многослойных систем распознавания образов.pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 17.10.2024

Просмотров: 95

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

1 2 *

355

П. 2-9

356

ОС Н О В Н Ы Е О Б О З Н А Ч Е Н И Я

х(я) — последовательность образов на входе системы распоз­ навания (СР);

s (я) — указание учителя о принадлежности текущего

образа

на входе СР к тому или иному классу;

 

xfe (я) — выходной сигнал СР;

 

а (я) — вектор настраиваемых коэффициентов;

 

g (п) — вектор промежуточных сигналов СР;

(я),

f (х, б) — совместная плотность распределения сигнала

s(«)];

К— число классов;

N*

— размерность пространства указаний учителя (i* =

= 1, ■•

• , JV*);

Кр — число решений СР; я — текущее дискретное время;

I' (х/е) — плотность распределения сигнала х (я) при условии заданного-£ (я);

}" (s/x) — плотность распределения сигнала s (я) при условии

заданного х (я);

распределения сигнала х (я);

 

fx (х) — плотность

 

/е (8) — плотность

распределения сигнала £ (я);

классов

p lt р 2,

. . . , Рк. — априорные вероятности появления

(ординаты

дискретного

распределения /8 (s));

 

fi

(х)>

f.2 (х)> • • • ,'

f к, (х) — условные распределения вероятно­

стей

для совокупности образов,

принадлежащих соответственно

1-му, . . . ,

ft-му классу;

 

 

Ь — квалификация

учителя;

порядка многомерного

случай­

a jk — смешанный

момент /-го

ного процесса х (я), представляющий собой последовательность

образов k-ro класса;

с — «собственное мнение учителя о своих способностях»;

rk' — условная функция риска относительно образов k'-то

класса;

L = \hk'] — матрица коэффициентов потерь, возникающих при отнесении системой образа k-то класса к области k-то решения;

S<ft> (х )£ > 0 — область k-то решения СР;

 

R — средняя функция риска;

 

 

I

— функционал

Лагранжа;

— превышение по апостериор­

 

 

 

d

ным

вероятностям;

* р + ‘.

 

 

(параметры

разделяющей поверхности

в од­

h l t h 2

— пороги

номерном

случае);

(®). к (е)> 1(е> xk) — соответствующие

компо­

к

(xk),

к (**). к

ненты вектор-функции потерь;

357


xfc =

P (x) — преобразование, осуществляемое разомкнутой

CP (CP на этапе распознавания);

 

и х* (п) по

Ко — число градаций по амплитуде сигналов е (я)

каждому из каналов;

 

 

р — функция потерь в режиме самообучения;

самообуче­

Ьк

— координата центра 6р-го класса

в режиме

ния;

 

 

 

U — матрица ковариаций;

многомерного случай­

m — вектор математических ожиданий

ного процесса;

 

 

Т— порог;

Ггамма-функция;

a t- — начальные моменты распределений;

 

 

 

Рг — центральные

моменты

распределений;

 

 

a — время упреждения решения в СР;

 

 

 

М — память СР;

 

переходная функция

дискретного филь-

Wдо — импульсная

ра; „

Лагранжа;

 

 

 

 

 

 

Я — множитель

 

 

 

 

 

 

mlt гп2 — векторы

математических ожиданий для совокупно­

стей образов первого и второго класса;

вероятности

правиль­

МРПрав — математическое

ожидание

ного распознавания;

 

вероятности

правильного

распознава­

DP прав — дисперсия

ния;

 

 

преобразование

аналогового

 

выходного

F (g) — нелинейное

 

сигнала линейного порогового элемента;

 

 

1,

. . . , W);

W — число слоев

ЛПЭ в многослойной СР (/ =

ahw _ j_ j_,

~

настраиваемые

коэффициенты

многослой­

ной СР, связывающие ЛПЭ ( W—/)-го

и (W—j + 1)-го слоев;

xJT-iJJ,,

 

— соответственно

выходной и

аналоговый

выходной сигналы

hw _ j +x-го ЛПЭ ( W — / +

1)-го слоя;

ф — число областей, на которое делит исходное пространство признаков результирующая кусочно-линейная разделяющая по­ верхность, реализуемая многослойной СР;

Н,- — число ЛПЭ в /'-м слое многослойной СР;

 

Н — общее число ЛПЭ в многослойной СР;

 

х а (п) — аналоговая

ошибка

СР;

 

 

xg (п)

— дискретная

ошибка

СР;

ошибки СР;

fa (х а) — распределение

аналоговой

fxg

(xg) — распределение

дискретной

ошибки

СР;

<хг ,

а

— момент г-го порядка распределений

соответственно

^

 

&

 

 

 

 

 

аналоговой и дискретной ошибок СР;

распределений соответст­

arka>

a rkg — момент

г-го порядка

венно аналоговой и дискретной ошибок СР для совокупности об­ разов fe-ro класса;

fka (ха), fkxg (*g), fkxk (Kk) — распределения соответственно

аналоговой и дискретной ошибок, а также выходного сигнала СР для совокупности образов k-vo класса;

f) ' (*g) — распределение преобразований дискретной ошибки; xg

358


Z (Xg) — преобразование

дискретной ошибки;

 

x k — преобразованный выходной

сигнал

СР;

 

Y (а) — функционал качества СР;

системы

поиска;

 

К * — параметрическая матрица

 

/ —• единичная матрица;

М г) — канонический вид записи

ог­

9ц (а) = 0

(ц =

1, . . . ,

раничений типа равенств на настраиваемые коэффициенты;

 

(Л7° -Ь 1) — количество настраиваемых коэффициентов;

ог­

9ц, ( а )< 0

( ( . 1 = 1 , . . . ,

М 2) — канонический вид записи

раничений типа неравенств на настраиваемые коэффициенты;

 

х (п)тп — оценка среднего значения сигнала х (п) на интерва­

ле времени [п,

п—т „];

между

моментами поступления

об­

АТ — интервал

времени

разов на вход СР.

 

 

 

 

 

СП И С О К Л И Т Е Р А Т У Р Ы

1.Айзерман М. А., Браверман Э. М., Розоноэр Л. И. Метод потенциальных функций в теории обучения машин. М., «Наука», 1970. 383 с.

2.Андерсон Т. Введение в многомерный статистический ана­ лиз. М., Физматгиз, 1963, 500 с.

3.Вопросы статистической теории распознавания. М., «Со­ ветское радио», 1967, 400 с. Авт.: Барабаш Ю. Л., Барский Б. В., Зиновьев В. Т. и др.

4.Бонгард М. М. Проблема узнавания. М., «Наука», 1967,

320 с.

5.Бутаков Е. А. Методы синтеза релейных устройств из по­

роговых элементов. М., «Энергия», 1970, 328 с. '

6.Синтез схем на пороговых элементах. Под ред. Е. Н. Ва­ вилова. М., «Советское радио», 1970, 368 с. Авт.: Вавилов Е. Н., Тоценко В. Г., Егоров Б. М. и др.

7.Ван дер Варден Б. Математическая статистика. М., Изд-во,

иностр. лит., 1960, 465 с.

8.Васильев В. И. Распознающие системы. Киев, «Наукова,

думка», 1969, 291 с.

9.Глушков В. М. Введение в кибернетику. Киев, издание АН УССР, 1964, 324 с.

10.Кендалл М., Стьюарт А. Теория распределений. М., «Наука», 1966, 587 с.

11.Дейч С. Модели нервной системы. М., «Мир», 1970, 325 с.

12.Дертоузос М. Пороговая логика. М., «Мир», 1967, 343 с.

13.Загоруйко Н. Г. Какими решающими функциями пользуется человек? — В сб.: Вычислительные системы. Новосибирск, 1967,

вып. 28, с. 69—78.

14.Ивахненко А. Г. Самообучающиеся системы распознавания

иавтоматического управления. Киев, «Техника», 1969, 392 с.

15.Ковалевский В. А. Распознавание образов: эвристика или

наука? — Обзор, Киев, ИК АН УССР, 1970, 94 с.

16.Корн Г. и Корн Т. Справочник по математике для научных работников и инженеров. М., «Наука», 1968, 720 с.

17.Красовский А. А. Динамика непрерывных самонастраи­ вающихся систем. М., Физматгиз, 1963, 468 с.

18.Леман Э. Л. Проверка статистических гипотез. М., «Наука», 1964. 498 с.

19.Лупанов О. Б. О возможностях синтеза схем из произволь­

ного числа элементов.— Труды Матем. ин-та им. Стеклова.

1958,

т. 51, с. 158—173.

1971,

20. Минский М., Пейперт С. Персептроны. М., «Мир»,

261 с.

 

360



21.Мкртчян С. О. Нейроны и нейронные сети. М., «Энергия», 1971, 231 с.

22.Нильсон Н. Обучающиеся машины. М., «Мир», 1967, 180 с.

23.Пирс У. Построение надежных вычислительных машин. М., «Мир», 1968, 270 с.

24.Позин Н. В. Моделирование нейронных структур. М., «Наука», 1970, 259 с.

25.Пугачев В. С. Теория случайных функций и ее применение

к задачам автоматического управления. М., Физматгиз, 1960,

883с.

26. Пугачев В. С. Оптимальное обучение автоматических си­

стем в изменяющихся условиях.— Труды III Всесоюзного совеща­ ния по автоматическому управлению. (Оптимальные системы. Ста­ тистические методы). М., «Наука», 1967, 392 с.

27.Рао С. Р. Линейные статистические методы и их примене­ ние. М., «Наука», 1968, 547 с.

28.Растригин Л. А. Статистические методы поиска. М., «Наука», 1968, 376 с.

29.Раудис Ш. Ю. Исследование зависимости вероятности

ошибки классификации от объема обучающей выборки.— Деп. ВИНИТИ, № 313-68.

30.Раудис Ш. Ю. Об определении объема обучающей выборки линейного классификатора.— В сб.: Вычислительные системы. Новосибирск, «Наука», 1967, вып. 22.

31.Розенблатт Ф. Принципы нейродинамики. М., «Мир», 1965,

480 с.

32.Романовский В. И. Математическая статистика. М.—Л.,

ГОНТИ, 1938, 528 с.

33.Аналитические самонастраивающиеся системы. Под ред. В. В. Солодовникова. М., «Машиностроение», 1965, 355 с.

34.Себестиан Г. С. Процессы принятия решений при распоз­ навании образов. Киев, «Техника», 1965, 151 с.

35.Техническая кибернетика. Под ред. В. В. Солодовникова. Т. 1—3. М., «Машиностроение», 1969, 1970.

36.Уидроу. Распознавание образов и адаптивное управление.— «Зарубежная радиоэлектроника», 1965, № 9, с. 87—111.

37.Уилкс С. Математическая статистика. М., «Наука», 1967,

242с.

38.Феллер В. Введение в теорию вероятностей и ее приложе­ ния. Т. 2. М., «Мир», 1964, 498 с.

39.Худсон Д. Статистика для физиков М., «Мир», 1967, 242 с.

40.Цыпкин Я. 3. Адаптация и обучение в автоматических системах. М., «Наука», 1968, 399 с.

41.Цыпкин Я . 3. Основы теории обучающихся систем. М., «Наука», 1970, 251 с.

42.Элдертон П. Кривые распределения численностей и корре­

ляция. М., ЦСУ, 1924, 199 с.

43.Cooper Р. W. The hypersphere in pattern recognition.— «Information and Control», 1962, № 5.

44.Дада P. О., Фоссум Б. Классификация изображений при помощи итеративно определяемой линейной и кусочно-линейной

классифицирующих функций.— Экспресс-информация. Техниче­ ская кибернетика, ВИНИТИ АН СССР, 1966, j\s 35, реферат 138.

45. Elderton Р. W. Frequency curves and correlation. Cambridge, Univ. Press, 1953, 272 p.

361