Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 67]

67 сколько иной смысл.
Обучение каждой НС заключается в применении генетических операторов к генотипу вектора Wi, т.е.
к хромосоме Hi, а обучающая Е.
выборка служит для вычисления ошибки обучения 1 нейронной сети HCi применительно к фенотипу.
Конечная цель обучения НС минимизация функции ошибки
Ео>Поверхность многомерной функции Ео является сложной, содержащей в общем случае глобальный и множество локальных минимумов [25].
Полученные ранее результаты по исследованию свойств и особенностей ГА используются для конструирования алгоритма обучения
НС, обладающего лучшими качествами в смысле повышения процента правильного распознавания и уменьшения времени, затрачиваемого на обучение.
Целью работы генетического алгоритма является нахождение таких значений весовых коэффициентов связей для всех нейронов скрытых и выходного слоя, которые обеспечивают заданное значение
Ео при минимальном времени обучения либо минимальное значение Ео при заданном времени обучения [101].
Запишем алгоритм обучения НС с помощью генетического алгоритма.
Шаг 1.
Задать обучающую и тестовую выборку.
Шаг 2.
Сформировать с помощью одного из методов Конструктора ГА топологию
НС.
Шаг 3.
Задать функцию Fit в виде £ = 4 ¿ м л ) 2 , (2.24) где Р число примеров в обучающей выборке; di желаемая величина выхода; yi реальное значение выхода.
Шаг 4.
Используя-метод числового кодирования, представить хромосомы с учетом заданной топологии
НС.
Установить соответствие между генотипом и фенотипом, введя ограничения на возможные значения весовых коэф
[стр. 176]

тичсских операторов к генотипу вектора \У„ т.е.
к хромосоме //,, а обучающая выборка служит для вычисления ошибки обучения Е, нейронной сети //С/ применительно к фенотипу.
Особенностиреализации алгоритма обучения на основе ГА Конечная цель обучения НС минимизация функции ошибки Е0.
Поверхность многомерной функции Е0является сложной, содержащей в общем случае глобальный и множество локальных минимумов.
Полученные ранее результаты по исследованию свойств и особенностей ГА используются для конструирования алгоритма обучения
МНС, обладающего лучшими качествами в смысле повышения процента правильного распознавания и уменьшения времени, затрачиваемого на обучение.
Целью работы генетического алгоритма является нахождение таких значений весовых коэффициентов связей для всех нейронов скрытых и выходного слоя, которые обеспечивают заданное значение
Е0 при минимальном времени обучения либо минимальное значение Е0 при заданном времени обучения.
Запишем алгоритм обучения МНС с помощью генетического алгоритма Шаг 1.
Задать обучающую и тестовую выборку.
Шаг 2.
Сформировать с помощью одного из методов Конструктора ГА топологию
МНС.
Шаг 3.
Задать функцию Ий в виде Е 1 р Е м л ) 2.р (3.9) /=1 175

[стр.,177]

где Р число примеров в обучающей выборке; ^ желаемая величина выхода; уI реальное значение выхода.
Шаг 4.
Используя метод числового кодирования, представить хромосомы с учетом заданной топологии
МНС.
Установить соответствие между генотипом и фенотипом, введя ограничения на возможные значения весовых коэффициентов,
учитывая вид функции активации (для сигмоидальной функции активации диапазон изменения значений весовых коэффициентов: (-1.+ 1)).
Шаг 5.
С учетом результатов экспериментального исследования ГА выбрать генетические операторы, являющиеся наилучшими при оптимизации многоэкстремальных функций и функций многих переменных: кроссинговер рекомбинация; мутация хромосомная инверсия, вероятность мутации О, 1; оператор селекции "дальнее родство" с переходом на последних к итерациях (к задается пользователем) на "ближнее родство" в сочетании с оператором элитного отбора.
Задать максимально возможную ошибку обобщения •Гобщ.
Шаг 6 .
На основе результатов исследования ГА сформировать популяцию из г хромосом (/< =50), число поколений (итераций ) с=25.
Шаг 7.
Применить оператор селекции для выбора пар хромосом для скрещивания.
Шаг 8 .
Применить генетические операторы кроссинговера и мутации к популяции.
176

[Back]