Проверяемый текст
Никонов Вячеслав Викторович. Методика и информационно-вычислительный комплекс интеллектуальной поддержки принятия решений на основе механизма немонотонного логического вывода и нейросетевых технологий (Диссертация 2010)
[стр. 98]

прогнозирования — отсутствие достаточной гибкости при обучении и настройке нейронной сети на заданную задачу.
Если значение вычисляемого скалярного произведения даже незначительно не достигает заданного порога, то выходной сигнал не формируется, и
нейрон «не срабатывает».
Это значит, что теряется интенсивность выходного сигнала (аксона) данного нейрона и, следовательно, формируется невысокое значение уровня на взвешенных входах в следующем слое нейронов.
Этого недостатка в большей степени лишена линейная (в общем случае кусочно-линейная) функция активации, реализация которой обеспечивает невысокую вычислительную сложность.
Сигмоидальная функция является некоторым компромиссом между линейной и ступенчатой функцией и сохраняет достоинства обеих, что делает данную функцию активации более привлекательной для решения задачи установления функциональной зависимости между
входными данными, полученными в ходе измерений и результатами прог ноза.
По аналогии со ступенчатой функцией, она нелинейна, и это дает возможность выделять в поисковом пространстве исследуемых объектов области сложной формы, в том числе невыпуклые и несвязные.
С другой стороны, в отличие от ступенчатой функции, она позволяет переходить от одного значения входного сигнала к другому без разрывов, как это происходит в линейной функции.
По архитектуре связей НС могут быть сгруппированы в два класса: 1) прямого распространения без обратных связей, 2) рекуррентные с обратными связями.
Сети прямого распространения являются статическими и на входной вектор значений X формируют определенный выходной вектор значений Y, не зависящий от предыдущего состояния сети, а вторые динамическими и сигналы с обратных связей вызывают многократную модификацию значений на входах ФН.
С точки зрения топологии НС различают [36] 1) полносвязные НС (рисунок
3.5а), 2) слоистые НС (рисунок 3.56), 3) слабосвязные НС (рисунок 3.5в).
[стр. 69]

Таблица 3.1.
Виды функций активаций ФН.
Название Формула Пороговая (единичного скачка) F(s) = 0,S<0 1,S>0 Знаковая F(S)=1,S>0 -1,S<0 Сигмоидальная (логистическая) F{S)=—~ v ' l + e~s Линейная F{S)=S Треугольная ns).
Hf-p1 Гиперболический тангенс S ~~s = 5-e +e Графики некоторых функций активации приведены на рисунке 3.5.
а— ПфрДО&м о -1Мфо<«}Д1« 1мяа«:.*А«: —■ CnJ VC40J.ILH.H CCMvCfF-tNIU»:.— JIlMCfcU* CII3CUХ-СЛИСЧ Рисунок 3.5 Виды функций активации Вид функции активации во многом определяет вычислительные возможности нейронной сети, состоящей из формальных нейронов.
Основной недостаток модели с пороговым элементом для решения задачи определения концентрации вредных веществ — отсутствие достаточной гибкости при обучении и настройке нейронной сети на заданную задачу.
Если значение вычисляемого скалярного произведения даже незначительно не достигает заданного порога, то выходной сигнал не формируется, и
69

[стр.,70]

нейрон «не срабатывает».
Эго значит, что теряется интенсивность выходного сигнала (аксона) данного нейрона и, следовательно, формируется невысокое значение уровня на взвешенных входах в следующем слое нейронов.
Этого недостатка в большей степени лишена линейная (в общем случае кусочно-линейная) функция активации, реализация которой обеспечивает невысокую вычислительную сложность.
Сигмоидальная функция является некоторым компромиссом между линейной и ступенчатой функцией и сохраняет достоинства обеих, что делает данную функцию активации более привлекательной для решения задачи установления функциональной зависимости между
спектром поглощения вредного вещества и соответствующей концентрацией.
По аналогии со ступенчатой функцией, она нелинейна, и это дает возможность выделять в поисковом пространстве исследуемых объектов области сложной формы, в том числе невыпуклые и несвязные.
С другой стороны, в отличие от ступенчатой функции, она позволяет переходить от одного значения входного сигнала к другому без разрывов, как это происходит в линейной функции.
По архитектуре связей НС могут быть сгруппированы в два класса: 1) прямого распространения — без обратных связей, 2) рекуррентные с обратными связями.
Сети прямого распространения являются статическими и на входной вектор значений X формируют определенный выходной вектор значений Y, не зависящий от предыдущего состояния сети, а вторые динамическими и сигналы с обратных связей вызывают многократную модификацию значений на входах ФН.
С точки зрения топологии НС различают [36] 1) полносвязные НС (рисунок
3.6а), 2) слоистые НС (рисунок 3.66), 3) слабосвязные НС (рисунок З.бв).
70

[Back]