98 Рис. 3.3. Результаты экспериментов исследования глобальных алгоритмов оптимизации ГА и АИО с локальным алгоритмом 11а основе проведенных исследований можно сделать следующий вывод: нейросетевой классификатор на основе многослойного псрсептрона с генетическим алгоритмом обучения может быть использован, когда требуется подстройка уже обученной сети к новым примерам, а алгоритм имитации отжига целесообразно использовать при малых обучающих выборках. 3.3. Использование нечеткой логики для регулирования скорости обучения НС Решение проблем, связанных с медленной сходимостью алгоритма ВР и блокировкой НС, может быть получено путем подстройки параметров обучения НС с использованием методов нечеткой логики. Схема подстройки параметров обучения НС с помощью нечеткой логики представлена на рис. 3.4. Нечеткая база правил, содержащая экспертные знания, используется для адаптивного изменения значений параметров обучения, в зависимости от состояния сети и реального значения параметров обучения. |
4. МЕТОДЫ ПОВЫШЕНИЯ ЭФФЕКТИВНОСТИ ИСПОЛЬЗОВАНИЯ НЕИРОСЕТЕВЫХ И ГИБРИДНЫХ ТЕХНОЛОГИИ В ИСППР Разрабатываемые в настоящей главе методы и алгоритмы для повышения эффективности использования нейросетевых и гибридных технологий в ИСППР основаны на результатах, полученных при исследовании проблем как автономного применения нейронных сетей, так и совместного с методами нечеткой логики и генетическими алгоритмами. 4.1. Повышение вычислительной эффективности алгоритмов обучения многослойного персептрона В главе 2 были определены основные проблемы, возникающие при использовании алгоритма Back Propagation в процедуре обучения многослойного персептрона: медленная сходимость процесса обучения; блокировка сети; проблема переобучения НС; выход из локального минимума. Предложим решение некоторых из этих проблем. 4.1.1. Использование нечеткой логики для регулирования скорости обучения МНС Необходимость комбинирования различных технологий ИИ для получения более качественных алгоритмов распознавания и классификации рассматривалась в главе 2 . Решение проблем, связанных с медленной сходимостью алгоритма ВР и блокировкой НС, может быть получено путем подстройки параметров обучения МНС с использованием методов нечеткой логики [229]. Схема под193 стройки параметров обучения НС с помощью нечеткой логики представлена на рис. 4.1. Нечеткая база правил, содержащая экспертные знания, используется для адаптивного изменения значений параметров обучения, в зависимости от состояния сети и реального значения параметров обучения. Обучающая выборка Нечеткие правила изменения парамет ров обучения -----------*-----------Адаптированный параметр обучения Выход Рис.4.1. Схема подстройки параметров обучения НС Правило обновления весовых коэффициентов в стандартном алгоритме обратного распространения в общем виде представляется формулой: Ату,у(/) = -И б ^х” + /гАн^(/ -1 ), (4.1) где дЕ Ф; дуубб] , а Е —ошибка обучения; Лскорость обучения и д коэффициент инерционности; t текущая итерация; п номер слоя; лг/ значение входа /-о нейрона в слое п. Основная проблема получения более быстрой сходимости состоит в автоматической подстройке параметров обучения Ии л, влияющих на процесс сходимости. 194 |