104 Достижение той же ошибки обучения (25 %) было достигнуто для ВР2 при числе итераций в пять раз меньше, а для ВР1 в три раза меньше. Выводы по главе 3 1. Предложен метагенетический алгоритм подбора параметров функционирования генетического алгоритма с помощью другого генетического алгоритма, позволяющий находить параметры ГА, оптимальные для решения конкретной прикладной задачи. 2. Предложен алгоритм обучения НС с использованием алгоритма имитации отжига, позволяющий за счет более широкого охвата области поиска глобального экстремума уменьшить ошибку обучения в сложных задачах. 3. Предложены и программно реализованы усовершенствованные нейросетевые модели в составе ИИТ, позволяющие, в отличие от стандартных, повысить скорость сходимости алгоритма обучения ВР на 25-30% за счет регулирования скорости обучения НС на основе методов нечеткой логики. |
4.5. Выводы 1. В главе проведено теоретическое и экспериментальное исследование в области построения высокоэффективных нейросетевых и нечетких нейросетевых классификаторов и нейросетевых систем нечеткого вывода, используемых в ИСППР для прогноза возможных решений, и определены пути их создания. 2. Предложены и программно реализованы усовершенствованные нейросетевые классификаторы персептронного типа, позволяющие, в отличие от стандартного, использующего для обучения алгоритм обратного распространения ошибки ВР, решить следующие задачи: • повысить скорость сходимости алгоритма обучения ВР на 25-30% за счет регулирования скорости обучения НС на основе методов нечеткой логики; • уменьшить ошибку распознавания (на 30-40 %) и время обучения МНС (в тысячу и более раз на той же обучающей выборке) за счет разработки алгоритма обучения на основе генетического алгоритма и совместного применения генетического алгоритма и алгоритма имитации отжига; при этом регулирование скорости обучения на основе алгоритма имитации отжига позволяет примерно в два раза уменьшить необходимое для обучения число итераций; • уменьшить время обучения за счет предложенного алгоритма автоматического останова процедуры обучения МНС, при этом число итераций для получения той же ошибки обобщения уменьшается примерно наполовину. 244 |