связей) сигнала, в которой входной сигнал преобразуется в выходной, проходя последовательно через несколько слоев. Первый слой называют входным, последний выходным, а промежуточные слои называют скрытыми. Обобщенная структура многослойной сигмоидальной НС с одним скрытым слоем представлена на рис. 3.7. Рисунок 3.7. Обобщенная структура многослойной сигмоидальной НС Сеть представленная на рис. 3.7. имеет п входов. На них поступают параметры информационного сигнала, идущие по синаптическим связям (синаптическим весам) на нейроны скрытого слоя. Выходные сигналы скрытого слоя передаются по синаптическим связям к нейронам выходного слоя. Веса нейронов от нулевого слоя к скрытому обозначены индексом (1), а веса от скрытого к выходному слою индексом (2). Выходные сигналы нейронов скрытого слоя обозначены и} (/=!..К), а выходного слоя (j-l.M). В качестве алгоритма обучения используют алгоритм обратного распространения ошибки (Back propagation, backprop) алгоритм обучения многослойных иерсептронов, основанный на вычислении градиента функции ошибок. В процессе обучения веса нейронов каждого слоя НС корректируются с учетом сигналов, поступивших с предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно в обратном направлении от последнего слоя к первому. Многослойный псрсептрон может формировать в режиме обучения сложные нелинейные гиперповерхности (кусочно-линейные, 1 101 |
Обученная НС фиксирует требуемое преобразование входного вектора (значения спектра поглощения) в вектор выходных сигналов (концентрации вредных веществ) в системе взвешенных межнейронных связей, которая осуществляет заданное функциональное преобразование входной информации в выходную. Вычислительный процесс преобразования входного вектора в выходной выполняется за счет взаимодействия оперативной информации в виде входного и промежуточных векторов с долговременной информацией информационного поля НС, которое осуществляется во взвешенных межнейронных связях и нейронах последовательно расположенных слоев НС. Доказано [83, 85J, что нейронной сетью с одним скрытым слоем и прямыми полными связями можно представить любую непрерывную функцию входных сигналов, для чего достаточно в случае п-мерного входного вектора 2п +1 ФН скрытого слоя с функциями активации. В экспериментальных НС могут присутствовать 4 и более скрытых слоев. Однако НС для решения поставленных перед нею задач достаточно одного или двух скрытых слоев. Ограничения но числу слоев и ФН связаны, в первую очередь, с ростом по экспоненте вычислительных затрат при программной реализации НС [86]. Многослойный перспетрон НС прямого распространения (без обратных связей) сигнала, в которой входной сигнал преобразуется в выходной, проходя последовательно через несколько слоев. Первый слой называют входным, последний выходным, а промежуточные слои называют скрытыми. Обобщенная структура многослойной сигмоидальной НС с одним скрытым слоем представлена на рисунке 3.8. 73 У 1 Ум Рисунок 3.8 Обобщенная структура многослойной сигмоид ал ьной НС Сеть представленная на рисунке 3.8 имеет п входов. На них поступают параметры информационного сигнала, идущие по синаптическим связям (синаптическим весам) на нейроны скрытого слоя. Выходные сигналы скрытого слоя передаются но синаптическим связям к нейронам выходного слоя. Веса нейронов от нулевого слоя к скрытому обозначены индексом (1), а веса от скрытого к выходному слою индексом (2). Выходные сигналы нейронов скрытого слоя обозначены Uj (J-1..K), а выходного слоя у; В качестве алгоритма обучения используют алгоритм обратного распространения ошибки (Back propagation, backprop) алгоритм обучения многослойных персептронов, основанный на вычислении градиента функции ошибок. В процессе обучения веса нейронов каждого слоя НС корректируются с учетом сигналов, поступивших с предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно в обратном направлении от последнего слоя к первому. Многослойный персептрон может формировать в режиме обучения сложные нелинейные гиперповерхности (кусочно-линейные, полиномиальные и т.д.). Благодаря этому многослойный персептрон способен решать различные трудно формализуемые задачи, имеющие сложную структуру в пространстве признаков. Многослойный персептрон с достаточным количеством внутренних нейронов и соответствующей 74 |