Проверяемый текст
Никонов Вячеслав Викторович. Методика и информационно-вычислительный комплекс интеллектуальной поддержки принятия решений на основе механизма немонотонного логического вывода и нейросетевых технологий (Диссертация 2010)
[стр. 101]

связей) сигнала, в которой входной сигнал преобразуется в выходной, проходя последовательно через несколько слоев.
Первый слой называют входным, последний выходным, а промежуточные слои называют скрытыми.
Обобщенная структура многослойной сигмоидальной НС с
одним скрытым слоем представлена на рис.

3.7.
Рисунок 3.7.
Обобщенная структура многослойной сигмоидальной НС Сеть
представленная на рис.

3.7.
имеет п входов.
На них поступают параметры информационного сигнала, идущие по синаптическим связям (синаптическим весам) на нейроны скрытого слоя.
Выходные сигналы скрытого слоя передаются
по синаптическим связям к нейронам выходного слоя.
Веса нейронов от нулевого слоя к скрытому обозначены индексом (1), а веса от скрытого к выходному слою индексом (2).
Выходные сигналы нейронов скрытого слоя обозначены
и} (/=!..К), а выходного слоя (j-l.M).
В качестве алгоритма обучения используют алгоритм обратного распространения ошибки (Back propagation, backprop) алгоритм обучения многослойных
иерсептронов, основанный на вычислении градиента функции ошибок.
В процессе обучения веса нейронов каждого слоя НС корректируются с учетом сигналов, поступивших с предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно в обратном направлении от последнего слоя к первому.
Многослойный
псрсептрон может формировать в режиме обучения сложные нелинейные гиперповерхности (кусочно-линейные, 1 101
[стр. 73]

Обученная НС фиксирует требуемое преобразование входного вектора (значения спектра поглощения) в вектор выходных сигналов (концентрации вредных веществ) в системе взвешенных межнейронных связей, которая осуществляет заданное функциональное преобразование входной информации в выходную.
Вычислительный процесс преобразования входного вектора в выходной выполняется за счет взаимодействия оперативной информации в виде входного и промежуточных векторов с долговременной информацией информационного поля НС, которое осуществляется во взвешенных межнейронных связях и нейронах последовательно расположенных слоев НС.
Доказано [83, 85J, что нейронной сетью с одним скрытым слоем и прямыми полными связями можно представить любую непрерывную функцию входных сигналов, для чего достаточно в случае п-мерного входного вектора 2п +1 ФН скрытого слоя с функциями активации.
В экспериментальных НС могут присутствовать 4 и более скрытых слоев.
Однако НС для решения поставленных перед нею задач достаточно одного или двух скрытых слоев.
Ограничения но числу слоев и ФН связаны, в первую очередь, с ростом по экспоненте вычислительных затрат при программной реализации НС [86].
Многослойный перспетрон НС прямого распространения (без обратных связей) сигнала, в которой входной сигнал преобразуется в выходной, проходя последовательно через несколько слоев.
Первый слой называют входным, последний выходным, а промежуточные слои называют скрытыми.
Обобщенная структура многослойной сигмоидальной НС с
одним скрытым слоем представлена на рисунке
3.8.
73

[стр.,74]

У 1 Ум Рисунок 3.8 Обобщенная структура многослойной сигмоид ал ьной НС Сеть представленная на рисунке 3.8 имеет п входов.
На них поступают параметры информационного сигнала, идущие по синаптическим связям (синаптическим весам) на нейроны скрытого слоя.
Выходные сигналы скрытого слоя передаются
но синаптическим связям к нейронам выходного слоя.
Веса нейронов от нулевого слоя к скрытому обозначены индексом (1), а веса от скрытого к выходному слою индексом (2).
Выходные сигналы нейронов скрытого слоя обозначены
Uj (J-1..K), а выходного слоя у; В качестве алгоритма обучения используют алгоритм обратного распространения ошибки (Back propagation, backprop) алгоритм обучения многослойных персептронов, основанный на вычислении градиента функции ошибок.
В процессе обучения веса нейронов каждого слоя НС корректируются с учетом сигналов, поступивших с предыдущего слоя, и невязки каждого слоя, которая вычисляется рекурсивно в обратном направлении от последнего слоя к первому.
Многослойный
персептрон может формировать в режиме обучения сложные нелинейные гиперповерхности (кусочно-линейные, полиномиальные и т.д.).
Благодаря этому многослойный персептрон способен решать различные трудно формализуемые задачи, имеющие сложную структуру в пространстве признаков.
Многослойный персептрон с достаточным количеством внутренних нейронов и соответствующей 74

[Back]