"Е.М.Миркес. Учебное пособие по курсу Нейроинформатика " - читать интересную книгу автора

преобразование в (5) переводит векторы из Rn в L({xi}). Второе
преобразование в (5) переводит результат первого преобразования Px в одну из
вершин гиперкуба образов. Легко показать, что второе преобразование в (5)
переводит точку Px в ближайшую вершину гиперкуба. Действительно, пусть a и b
две различные вершины гиперкуба такие, что a - ближайшая к Px, а b = x'.
Из того, что a и b различны следует, что существует множество индексов,
в которых координаты векторов a и b различны. Обозначим это множество через
I = {i : ai = -bi}. Из второго преобразования в (5) и того, что b = x',
следует, что знаки координат вектора Px всегда совпадают со знаками
соответствующих координат вектора b. Учитывая различие знаков i-х координат
векторов a и Px при i в I можно записать |ai-(Px)i| = |ai|+|(Px)i| =
1+|(Px)i|. Совпадение знаков i-х координат векторов b и Px при i в I
позволяет записать следующее неравенство |bi-(Px)i| = ||bi|-|(Px)i| <
1+|(Px)i|. Сравним расстояния от вершин a и b до точки Px
Полученное неравенство противоречит тому, что a - ближайшая к Px. Таким
образом, доказано, что второе преобразование в (5) переводит точку Px в
ближайшую вершину гиперкуба образов.


Ортогональные сети

Для обеспечения правильного воспроизведения эталонов вне зависимости от
степени их коррелированности достаточно потребовать, чтобы первое
преобразование в (5) было таким, что xi = Pxi [67]. Очевидно, что если
проектор является ортогональным, то это требование выполняется, поскольку x
= Px при x вL({xi}), а xj вL({xi}) по определению множества L({xi}).
Для обеспечения ортогональности проектора воспользуемся дуальным
множеством векторов. Множество векторов V({xi}) называется дуальным к
множеству векторов {xi}, если все векторы этого множества vj удовлетворяют
следующим требованиям:
1. (xi, vi) = П'ij; П'ij = 0, при i в j; П'ij = 1 при i = j;
2. vj вL({xi}).
Преобразование
является ортогональным проектором на линейное пространство L({xi}).
Ортогональная сеть ассоциативной памяти преобразует образы по формуле
(6)
Дуальное множество векторов существует тогда и только тогда, когда
множество векторов {xi} линейно независимо. Если множество эталонов {xi}
линейно зависимо, то исключим из него линейно зависимые образы и будем
рассматривать полученное усеченное множество эталонов как основу для
построения дуального множества и преобразования (6). Образы, исключенные из
исходного множества эталонов, будут по-прежнему сохраняться сетью в исходном
виде (преобразовываться в самих себя). Действительно, пусть эталон x
является линейно зависимым от остальных m эталонов. Тогда его можно
представить в виде
Подставив полученное выражение в преобразование (6) и учитывая свойства
дуального множества получим:
(7)
Рассмотрим свойства сети (6) [67]. Во-первых, количество запоминаемых и
точно воспроизводимых эталонов не зависит от степени их коррелированности.