"Искусственные нейронные сети. Теория и практика." - читать интересную книгу автора (Круглов В.В., Борисов В.В.)Про функции активации нейронов выходного слоя из теоремы Хехт-Нильсена известно только то, что они представляют собой нелинейные функции общего вида В одной из работ, продолжающих развитие теории, связанной с рассматриваемой теоремой, доказывается, что функции активации нейронов выходного слоя должны быть монотонно возрастающими Это утверждение в некоторой степени сужает класс функций, которые могут использоваться при реализации отображения с помощью двухслойной нейронной сети
На практике требования теоремы Хехт-Нильсена к функциям активации удовлетворяются следующим образом В нейронных сетях как для первого (скрытого), так и для второго (выходного) слоя используют сигмоидальные передаточные функции с настраиваемыми параметрами То есть в процессе обучения индивидуально для каждого нейрона задается максимальное и минимальное значение, а также наклон сигмоидальной функции Следствие 2 Для любого множества пар (л , Т) (где У* -скаляр) существует двухслойная однородная (с одинаковыми функциями активации) нейронная сеть первого порядка с последовательными связями и с конечным числом нейронов, которая выполняет отображение X -> У, выдавая на каждый входной сигнал Хк правильный выходной сигнал У* Нейроны в такой двухслойной нейронной сети должны иметь сигмоидальные передаточные функции К сожалению, эта теорема не конструктивна В ней не заложена методика определения числа нейронов в сети для некоторой конкретной обучающей выборки Для многих задач единичной размерности выходного сигнала недостаточно Необходимо иметь возможность строить с помощью нейронных сетей функции X -> У, где У имеет произвольную размерность Следующее утверждение является теоретической 21 основой для построения таких функций на базе однородных нейронных сетей. Утверждение. Для любого множества пар входных-выходных векторов произвольной размерности {{Хк, У*), к = 1...Л/} существует однородная двухслойная нейронная сеть с последовательными связями, с сигмоидальными передаточными функциями и с конечным числом нейронов, которая для каждого входного вектора Сформирует соответствующий ему выходной вектор У*. Таким образом, для представления многомерных функций многих переменных может быть использована однородная двухслойная нейронная сеть с сигмоидальными передаточными функциями. Для оценки числа нейронов с скрытых слоях однородных нейронных сетей можно воспользоваться формулой для оценки необходимого числа синаптических весов Lw в многослойной сети с сигмоидальными передаточными функциями: —------<и<т\— + \\{п + т + ^ + т, (1.5) 1 + log2/V \m ) где п - размерность входного сигнала, т - размерность выходного сигнала, Л/-число элементов обучающей выборки. Оценив необходимое число весов, можно рассчитать число нейронов в скрытых слоях. Например, для двухслойной сети это число составит: L = -^-. (1.6) п + т Известны и другие формулы для оценки, например: 2(n + L + m)------n-m Точно так же можно рассчитать число нейронов в сетях с большим числом слоев. Иногда целесообразно использовать сети с большим числом слоев. Такие многослойные нейронные сети могут иметь меньшие размерности матриц синаптических весов нейронов одного слоя, чем двухслойные сети, реализующие то же самое отображение. Однако строгой методики построения таких сетей пока нет. Аналогичная ситуация складывается и с многослойными нейронными сетями, в которых помимо последовательных связей используются и прямые (связи от слоя с номером q к слою с номером (q+p), где р > 1). Нет строгой теории, которая показывала бы возможность и целесообразность построения таких сетей. 22 Наибольшие проблемы возникают при использовании сетей циклического функционирования. К этой группе относятся многослойные сети с обратными связями (от слоя с номером q к слою с номером (g+р), где р < 0), а также полносвязные сети. Для успешного функционирования таких сетей необходимо соблюдение условий динамической устойчивости, иначе сеть может не сойтись к правильному решению, либо, достигнув на некоторой итерации правильного значения выходного сигнала, после нескольких итераций уйти от этого значения. Проблема динамической устойчивости подробно исследована, пожалуй, лишь для одной модели из рассматриваемой группы - нейронной сети Хопфилда. Отметим, что отечественному читателю приведенные результаты известны в более фрагментарной форме - в виде так называемой теоремы о полноте. Теорема о полноте. Любая непрерывная функция на замкнутом ограниченном множестве может быть равномерно приближена функциями, вычисляемыми нейронными сетями, если функция активации нейрона дважды непрерывно дифференцируема и непрерывна. Таким образом, нейронные сети являются универсальными структурами, позволяющими реализовать любой вычислительный алгоритм. 1.4. Постановка и возможные пути решения задачи обучения нейронных сетей Очевидно, что процесс функционирования нейронной сети, сущность действий, которые она способна выполнять, зависит от величин синаптических связей. Поэтому, задавшись определенной структурой сети, соответствующей какой-либо задаче, необходимо найти оптимальные значения всех переменных весовых коэффициентов (некоторые синаптические связи могут быть постоянными). Этот этап называется обучением нейронной сети, и от того, насколько качественно он будет выполнен, зависит способность сети решать поставленные перед ней проблемы во время функционирования. В процессе функционирования нейронная сеть формирует выходной сигнал У в соответствии с входным сигналом X, реализуя некоторую функцию g: Y = д{Х). Если архитектура сети задана, 23 то вид функции д определяется значениями синаптических весов и смещений сети. Обозначим через G множество всех возможных функций д, соответствующих заданной архитектуре сети. Пусть решение некоторой задачи есть функция г. Y = г[Х), заданная парами входных-выходных данных (X1, У1), ..., (X*, У*), для которых У* = г(Х*), к = 1 . N. Е - функция ошибки (функционал качества), показывающая для каждой из функций д степень близости к г. Решить поставленную задачу с помощью нейронной сети заданной архитектуры - это значит построить (синтезировать) функцию д е G, подобрав параметры нейронов (синаптические веса и смещения) таким образом, чтобы функционал качества обращался в оптимум для всех пар (X*, V*). Таким образом, задача обучения нейронной сети определяется совокупностью пяти компонентов: <Х, У, г, G, Е>. Обучение состоит в поиске (синтезе) функции д, оптимальной по Е. Оно требует длительных вычислений и представляет собой итерационную процедуру. Число итераций может составлять от 103 до 108. На каждой итерации происходит уменьшение функции ошибки. Функция ? может иметь произвольный вид. Если выбраны множество обучающих примеров и способ вычисления функции ошибки, обучение нейронной сети превращается в задачу многомерной оптимизации, для решения которой могут быть использованы следующие методы: • локальной оптимизации с вычислением частных производных первого порядка; • локальной оптимизации с вычислением частных производных первого и второго порядка; • стохастической оптимизации; • глобальной оптимизации. К первой группе относятся: градиентный метод (наискорейшего спуска); методы с одномерной и двумерной оптимизацией целевой функции в направлении антиградиента; метод сопряженных градиентов; методы, учитывающие направление антиградиента на нескольких шагах алгоритма. Ко второй группе относятся' метод Ньютона, методы оптимизации с разреженными матрицами Гессе, квазиньютоновские методы, метод Гаусса-Ньютона, метод Левенберга-Маркардта. 24 Стохастическими методами являются: поиск в случайном направлении, имитация отжига, метод Монте-Карло (численный метод статистических испытаний). |
|
© 2026 Библиотека RealLib.org
(support [a t] reallib.org) |