прогнозирования — отсутствие достаточной гибкости при обучении и настройке нейронной сети на заданную задачу. Если значение вычисляемого скалярного произведения даже незначительно не достигает заданного порога, то выходной сигнал не формируется, и нейрон «не срабатывает». Это значит, что теряется интенсивность выходного сигнала (аксона) данного нейрона и, следовательно, формируется невысокое значение уровня на взвешенных входах в следующем слое нейронов. Этого недостатка в большей степени лишена линейная (в общем случае кусочно-линейная) функция активации, реализация которой обеспечивает невысокую вычислительную сложность. Сигмоидальная функция является некоторым компромиссом между линейной и ступенчатой функцией и сохраняет достоинства обеих, что делает данную функцию активации более привлекательной для решения задачи установления функциональной зависимости между входными данными, полученными в ходе измерений и результатами прог ноза. По аналогии со ступенчатой функцией, она нелинейна, и это дает возможность выделять в поисковом пространстве исследуемых объектов области сложной формы, в том числе невыпуклые и несвязные. С другой стороны, в отличие от ступенчатой функции, она позволяет переходить от одного значения входного сигнала к другому без разрывов, как это происходит в линейной функции. По архитектуре связей НС могут быть сгруппированы в два класса: 1) прямого распространения без обратных связей, 2) рекуррентные с обратными связями. Сети прямого распространения являются статическими и на входной вектор значений X формируют определенный выходной вектор значений Y, не зависящий от предыдущего состояния сети, а вторые динамическими и сигналы с обратных связей вызывают многократную модификацию значений на входах ФН. С точки зрения топологии НС различают [36] 1) полносвязные НС (рисунок 3.5а), 2) слоистые НС (рисунок 3.56), 3) слабосвязные НС (рисунок 3.5в). |
Таблица 3.1. Виды функций активаций ФН. Название Формула Пороговая (единичного скачка) F(s) = 0,S<0 1,S>0 Знаковая F(S)=1,S>0 -1,S<0 Сигмоидальная (логистическая) F{S)=—~ v ' l + e~s Линейная F{S)=S Треугольная ns). Hf-p1 Гиперболический тангенс S ~~s = 5-e +e Графики некоторых функций активации приведены на рисунке 3.5. а— ПфрДО&м о -1Мфо<«}Д1« 1мяа«:.*А«: —■ CnJ VC40J.ILH.H CCMvCfF-tNIU»:.— JIlMCfcU* CII3CUХ-СЛИСЧ Рисунок 3.5 Виды функций активации Вид функции активации во многом определяет вычислительные возможности нейронной сети, состоящей из формальных нейронов. Основной недостаток модели с пороговым элементом для решения задачи определения концентрации вредных веществ — отсутствие достаточной гибкости при обучении и настройке нейронной сети на заданную задачу. Если значение вычисляемого скалярного произведения даже незначительно не достигает заданного порога, то выходной сигнал не формируется, и 69 нейрон «не срабатывает». Эго значит, что теряется интенсивность выходного сигнала (аксона) данного нейрона и, следовательно, формируется невысокое значение уровня на взвешенных входах в следующем слое нейронов. Этого недостатка в большей степени лишена линейная (в общем случае кусочно-линейная) функция активации, реализация которой обеспечивает невысокую вычислительную сложность. Сигмоидальная функция является некоторым компромиссом между линейной и ступенчатой функцией и сохраняет достоинства обеих, что делает данную функцию активации более привлекательной для решения задачи установления функциональной зависимости между спектром поглощения вредного вещества и соответствующей концентрацией. По аналогии со ступенчатой функцией, она нелинейна, и это дает возможность выделять в поисковом пространстве исследуемых объектов области сложной формы, в том числе невыпуклые и несвязные. С другой стороны, в отличие от ступенчатой функции, она позволяет переходить от одного значения входного сигнала к другому без разрывов, как это происходит в линейной функции. По архитектуре связей НС могут быть сгруппированы в два класса: 1) прямого распространения — без обратных связей, 2) рекуррентные с обратными связями. Сети прямого распространения являются статическими и на входной вектор значений X формируют определенный выходной вектор значений Y, не зависящий от предыдущего состояния сети, а вторые динамическими и сигналы с обратных связей вызывают многократную модификацию значений на входах ФН. С точки зрения топологии НС различают [36] 1) полносвязные НС (рисунок 3.6а), 2) слоистые НС (рисунок 3.66), 3) слабосвязные НС (рисунок З.бв). 70 |