Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 68]

68 фициентов, учитывая вид функции активации (для сигмоидной функции активации диапазон изменения значений весовых коэффициентов: (-1, -И)).
Шаг 5.
С учетом результатов экспериментального исследования ГА выбрать генетические операторы, являющиеся наилучшими при оптимизации многоэкстремальных функций и функций многих переменных; кроссинговер рекомбинация; мутация хромосомная инверсия, вероятность мутации
0, 1; оператор селекции "дальнее родство" с переходом на последних к итерациях (к задается пользователем) на "ближнее родство" в сочетании с оператором элитного отбора.
Задать максимально возможную ошибку обобщения
Еобщ.
Шаг 6.
На основе результатов исследования ГА сформировать популяцию из г хромосом
(г< =50), число поколений (итераций ) с=25.
Шаг 7.
Применить оператор селекции для выбора пар хромосом для скрещивания.
Шаг 8.
Применить генетические операторы кроссинговера и мутации к популяции.

Шаг 9.
Вычислить функцию Fit, соответствующую ошибке обучения Ео для каждой хромосомы по формуле (2.19).
Шаг 10.
Применить оператор отбора хромосом в новую популяцию из родителей, потомков и мутантов с ограничением популяции до г.
Лучшая хромосома из каждой популяции сохраняется в архиве.
Шаг 11.
с:=с-1.
Если с=0, перейти к ш.
12, иначе к ш.
7.
Шаг12.
Выбрать лучшую хромосому из всех популяций.
Шаг 13.
Вычислить
Еобщ.
на тестовой выборке по формуле (2.20), где Р число примеров в тестовой выборке.
Шаг 14.
Если
Еобщ.<= s, перейти к ш.15, иначе к ш.6.
Шаг 15.
Останов: Ошибку распознавания НС, обученной с помощью генетического алгоритма, можно существенно уменьшить, если использовать
двухэтапный алгоритм.
Двухэтапный алгоритм обучения НС на основе ГА представляется следующим образом.
[стр. 177]

где Р число примеров в обучающей выборке; ^ желаемая величина выхода; уI реальное значение выхода.
Шаг 4.
Используя метод числового кодирования, представить хромосомы с учетом заданной топологии МНС.
Установить соответствие между генотипом и фенотипом, введя ограничения на возможные значения весовых коэффициентов, учитывая вид функции активации (для сигмоидальной функции активации диапазон изменения значений весовых коэффициентов: (-1.+ 1)).
Шаг 5.
С учетом результатов экспериментального исследования ГА выбрать генетические операторы, являющиеся наилучшими при оптимизации многоэкстремальных функций и функций многих переменных: кроссинговер рекомбинация; мутация хромосомная инверсия, вероятность мутации
О, 1; оператор селекции "дальнее родство" с переходом на последних к итерациях (к задается пользователем) на "ближнее родство" в сочетании с оператором элитного отбора.
Задать максимально возможную ошибку обобщения
•Гобщ.
Шаг 6 .
На основе результатов исследования ГА сформировать популяцию из г хромосом
(/< =50), число поколений (итераций ) с=25.
Шаг 7.
Применить оператор селекции для выбора пар хромосом для скрещивания.
Шаг 8 .
Применить генетические операторы кроссинговера и мутации к популяции.

176

[стр.,178]

Шаг 9.
Вычислить функцию Гк, соответствующую ошибке обучения Е0 для каждой хромосомы по формуле (3.9).
Шаг 10.
Применить оператор отбора хромосом в новую популяцию из родителей, потомков и мутантов с ограничением популяции до г.
Лучшая хромосома из каждой популяции сохраняется в архиве.
Шаг 11.
с:=с-1.
Если с=0, перейти к ш.
12, иначе к ш.
7.
Шаг12.
Выбрать лучшую хромосому из всех популяций.
Шаг 13.
Вычислить
Е0бЩ.
на тестовой выборке по формуле (3.9), где Р число примеров в тестовой выборке.
Шаг 14.
Если
Ео5и1<= в, перейти к ш.15, иначе к ш.6 .
Шаг 15.
Останов.
Ошибку распознавания НС, обученной с помощью генетического алгоритма, можно существенно уменьшить, если использовать
двухэтапныи алгоритм.
Двухэтапный алгоритм обучения НС на основе ГА представляется следующим образом.

Шаги с 1 по 11 алгоритма двухэтапного обучения не отличаются от приведенного выше алгоритма.
Шаг 12.
Выбрать лучшую хромосому из всех популяций.
Выполнить с1 итераций по методу локальной оптимизации на фенотипе (метод и параметр с1задается пользователем).
Далее шаги с 13 по 15 те же, что и для ГА.
Достоинства алгоритма обучения с использованием ГА перед другими альтернативными методами обсуждаются в разделе 4.1.3.
177

[Back]