130 онной системы 8. Выбор числа скрытых слоев и числа нейронов в каждом слое осуществляется на основе алгоритмов, разработанных в главе 2 . В качестве примера построим ИС для выбора топологии ЛВС. Процедура формирования НС сводится к следующей последовательности действий: 1. поиск в библиотеке готовых проектов подходящих нейронных модулей, решающих аналогичную задачу; 2. в случае отсутствия таких модулей формирование топологии НС по разработанным в главе 2 алгоритмам. Ранее (в главе 2) решалась задача выбора топологии НС* для определения топологии ЛВС, число выходов которой соответствует числу выходов конструируемой НС, но число входов НС* (соответствующих первым 8 переменным в табл.4.8) меньше требуемого (заданного полной табл. 4.8). В архитектуру искомой МНС будем включать нейронный модуль МНС* с необучаемыми связями, добавив недостающие входы (рис. 4.12); число скрытых слоев и нейронов скрытого слоя определим на основе предложенного в главе 2 алгоритма. При обучении МНС на вход подается пара (К, У) из обучающей выборки, где К = (г, /*17), а У (у\9у2»уз)При обучении подстраиваются тольког весовые коэффициенты межнейронных связей скрытого и выходного слоя, а также скрытого слоя с входным (гз, /*п) и выходным (у\*,уг*9уз*) МНС*. Это значительно снижает время обучения НС , позволяет проводить дообучение нейронных сетей при появлении новых данных и сохранять накопленные знания, что, в свою очередь, приводит к повышению качества прогноза. Обучение и тестирование НС осуществлялось на основе нейроимитатора. Для заданного входного вектора результаты работы НС (выбранные варианты подчеркнуты, уверенность в ответе дается в интервале [0, 1]) представлены ниже. |
нов в каждом слое осуществляется на основе алгоритмов, разработанных в главе 3. В качестве примера построим МНС для выбора топологии ЛВС. Процедура формирования МНС сводится к следующей последовательности действий: 1) поиск в библиотеке готовых проектов подходящих нейронных модулей, решающих аналогичную задачу; 2) в случае отсутствия таких модулей формирование топологии МНС по разработанным в главе 3 алгоритмам. Ранее (в главе 3) решалась задача выбора топологии МНС* для определения топологии ЛВС, число выходов которой соответствует числу выходов конструируемой МНС, но число входов МНС* (соответствующих первым 8 переменным в табл.4.5) меньше требуемого (заданного полной табл. 4.5). В архитектуру искомой МНС будем включать нейронный модуль МНС* с необучаемыми связями, добавив недостающие входы (рис. 4.9); число скрытых слоев и нейронов скрытого слоя определим на основе предложенного в главе 3 алгоритма. При обучении МНС на вход подается пара (И, У) из обучающей выборки, где II = (п, ..., п 7), а У = (у\,у2 ,уз). При обучении подстраиваются только весовые коэффициенты межнейронных связей скрытого и выходного слоя, а также скрытого слоя с входным (г8, ..., гц) и выходным (у!*, >>2*» Уъ*) МНС*. 218 У1 Уг Уь Рис. 4.9 Архитектура МНС для определения топологии ЛВС Выходы М Н С * : >»2*,7 з* наряду с г9 п 7 используются как входы в МНС Это значительно снижает время обучения МНС , позволяет проводить дообучение нейронных сетей при появлении новых данных и сохранять накопленные знания, что, в свою очередь, приводит к повышению качества прогноза Обучение и тестирование МНС осуществлялось на основе нейроимитатора, разработанного под руководством автора и зарегистрированного в РОСПАТЕНТЕ [166]. Для заданного входного вектора результаты работы МНС (выбранные варианты подчеркнуты, уверенность в ответе дается в интервале [О, 1]) представлены ниже. 219 |