"Е.М.Миркес. Учебное пособие по курсу Нейроинформатика " - читать интересную книгу автора После приведения к единичной матрице главного минора ранга m получится
следующая матрица: где bi - неизвестные величины, полученные в ходе приведения главного минора к единичной матрице. Для завершения обращения матрицы Gm+1 необходимо привести к нулевому виду первые m элементов последней строки и (m +1)-го столбца. Для обращения в ноль i-го элемента последней строки необходимо умножить i-ю строку на (x, xm+1) и вычесть из последней строки. После проведения этого преобразования получим где , . b0 = 0 только если новый эталон является линейной комбинацией первых m эталонов. Следовательно b0 в 0. Для завершения обращения необходимо разделить последнюю строку на b0 и затем вычесть из всех предыдущих строк последнюю, умноженную на соответствующее номеру строки bi. В результате получим следующую матрицу где Fij = Gmij-1-bicj/b0. Поскольку матрица, обратная к симметричной, всегда симметрична получаем ci/b0 = -bi/b0 при всех i. Так как b0 в 0 следовательно bi = -ci. Обозначим через d вектор ((x1, xm+1), ..., (xm, xm+1)), через b - вектор (b1, ..., bm). Используя эти обозначения можно записать b = Gm-1d, b0 = (xm+1,xm+1)-(d,b), b0 = (xm+1,xm+1)-(d,b). Матрица Gm+1-1 записывается в виде Таким образом, при добавлении нового эталона требуется произвести следующие операции: 1. Вычислить вектор d (m скалярных произведений - mn операций, mnвn ). 2. Вычислить вектор b (умножение вектора на матрицу - m операций). 4. Умножить матрицу на число и добавить тензорное произведение вектора b на себя (2m операций). 5. Записать Gm+1-1. Таким образом эта процедура требует m+n+mn+3m операций. Тогда как стандартная схема полного пересчета потребует: 1. Вычислить всю матрицу Грама (nm(m+1)/2 операций). 2. Методом Гаусса привести левую квадратную матрицу к единичному виду (2m +m -m операций). 3. Записать Gm+1-1. Всего 2m +m -m+nm(m+1)/2 операций, что в m раз больше. Используя ортогональную сеть (6), удалось добиться независимости способности сети к запоминанию и точному воспроизведению эталонов от степени коррелированности эталонов. Так, например, ортогональная сеть смогла правильно воспроизвести все буквы латинского алфавита в написании, приведенном на рис. 1. Основным ограничением сети (6) является малое число эталонов - число линейно независимых эталонов должно быть меньше размерности системы n. Тензорные сети Для увеличения числа линейно независимых эталонов, не приводящих к прозрачности сети, используется прием перехода к тензорным или многочастичным сетям [75, 86, 93, 293]. |
|
|