Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 130]

130 онной системы 8.
Выбор числа скрытых слоев и числа нейронов в каждом слое осуществляется на основе алгоритмов, разработанных в главе 2 .
В качестве примера построим ИС для выбора топологии ЛВС.
Процедура формирования
НС сводится к следующей последовательности действий: 1.
поиск в библиотеке готовых проектов подходящих нейронных модулей, решающих аналогичную задачу; 2.
в случае отсутствия таких модулей формирование топологии
НС по разработанным в главе 2 алгоритмам.
Ранее (в главе 2) решалась задача выбора топологии НС* для определения топологии ЛВС, число выходов которой соответствует числу выходов конструируемой НС, но число входов НС* (соответствующих первым 8 переменным в табл.4.8) меньше требуемого (заданного полной табл.
4.8).
В архитектуру искомой МНС будем включать нейронный модуль МНС* с необучаемыми связями, добавив недостающие входы (рис.

4.12); число скрытых слоев и нейронов скрытого слоя определим на основе предложенного в главе 2 алгоритма.
При обучении МНС на вход подается пара
(К, У) из обучающей выборки, где К = (г, /*17), а У (у\9у2»уз)При обучении подстраиваются тольког весовые коэффициенты межнейронных связей скрытого и выходного слоя, а также скрытого слоя с входным (гз, /*п) и выходным (у\*,уг*9уз*) МНС*.
Это значительно снижает время обучения
НС , позволяет проводить дообучение нейронных сетей при появлении новых данных и сохранять накопленные знания, что, в свою очередь, приводит к повышению качества прогноза.
Обучение и тестирование
НС осуществлялось на основе нейроимитатора.
Для заданного входного вектора результаты работы
НС (выбранные варианты подчеркнуты, уверенность в ответе дается в интервале [0, 1]) представлены ниже.
[стр. 219]

нов в каждом слое осуществляется на основе алгоритмов, разработанных в главе 3.
В качестве примера построим МНС для выбора топологии ЛВС.
Процедура формирования
МНС сводится к следующей последовательности действий: 1) поиск в библиотеке готовых проектов подходящих нейронных модулей, решающих аналогичную задачу; 2) в случае отсутствия таких модулей формирование топологии МНС по разработанным в главе 3 алгоритмам.
Ранее (в главе 3) решалась задача выбора топологии МНС* для определения топологии ЛВС, число выходов которой соответствует числу выходов конструируемой МНС, но число входов МНС* (соответствующих первым 8 переменным в табл.4.5) меньше требуемого (заданного полной табл.
4.5).
В архитектуру искомой МНС будем включать нейронный модуль МНС* с необучаемыми связями, добавив недостающие входы (рис.

4.9); число скрытых слоев и нейронов скрытого слоя определим на основе предложенного в главе 3 алгоритма.
При обучении МНС на вход подается пара
(И, У) из обучающей выборки, где II = (п, ..., п 7), а У = (у\,у2 ,уз).
При обучении подстраиваются только весовые коэффициенты межнейронных связей скрытого и выходного слоя, а также скрытого слоя с входным (г8, ..., гц) и выходным (у!*, >>2*» Уъ*) МНС*.
218

[стр.,220]

У1 Уг Уь Рис.
4.9 Архитектура МНС для определения топологии ЛВС Выходы М Н С * : >»2*,7 з* наряду с г9 п 7 используются как входы в МНС Это значительно снижает время обучения МНС , позволяет проводить дообучение нейронных сетей при появлении новых данных и сохранять накопленные знания, что, в свою очередь, приводит к повышению качества прогноза Обучение и тестирование МНС осуществлялось на основе нейроимитатора, разработанного под руководством автора и зарегистрированного в РОСПАТЕНТЕ [166].
Для заданного входного вектора результаты работы
МНС (выбранные варианты подчеркнуты, уверенность в ответе дается в интервале [О, 1]) представлены ниже.
219

[Back]