Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 63]

(2.22) ; п —число начальных точек; гу —число решений задачи оптимизации; 2) среднее число необходимых вычислений целевой функции для класса тестовых задач [102] для целевой функции при решении задачи].
Первый критерий
(2,21) определяет степень устойчивости алгоритма к попаданию в точки экстремумов, а второй (2.22) скорость сходимости к экстремуму.
Применение современных вычислительных средств приводит к тому, что второй
критерий становится не столь важным, поэтому при сравнении эффективности алгоритмов оптимизации будем в основном пользоваться первым критерием [44].
Для построения эффективного алгоритма обучения нейронной сети, повышающего вероятность нахождения
минимума ошибки обучения и скорость сходимости к экстремуму, проведем исследование рассмотренных выше методов при решении непрерывных задач оптимизации [15, 17].
Для исследования были выбраны тестовые функции, характеризующиеся различным количеством оптимизируемых параметров, числом экстремумов,
видом области поиска.
Методика проведения экспериментов заключалась в следующем.
Точка минимума считалась найденной, если разность значений функции в полученной точке и действительного минимума менее 10' .
Для определения сходимости производилось сто запусков алгоритма из 100 различных точек.
Исходные точки выбирались случайным образом, значение каждой из координат выбиралось на основе равномерного распределения в пределах ограничений для данной координаты.
Таким образом, сходимость определялась как отношение количества схождений к общему количеству запусков с (2.23) где т} = и, !п] ПК ~, где ' — суммарное число иеооходимых вычислении
[стр. 153]

где к —число тестовых задач; р , —п:1п\ п — число начальных точек; «у — число решений задачи оптимизации; 2 ) среднее число необходимых вычислений целевой функции для класса тестовых задач 1 к т = ’ ( 3 8 ) к ] = \ где тj n F !п,, где nF —суммарное число необходимых вычислений для целевой функции при решении задачиj.
Первый критерий
(3.7) определяет степень устойчивости алгоритма к попаданию в точки экстремумов, а второй (3.8) скорость сходимости к экстремуму.
Применение современных вычислительных средств приводит к тому, что второй
критерии становится не столь важным, поэтому при сравнении ГА с другими алгоритмами будем в основном пользоваться первым критерием.
Для генетического алгоритма устойчивость связана с необходимостью постоянно увеличивать качество популяции от поколения к поколению, т.е.
связана с возрастанием среднего значения Fit по популяции при переходе к следующему поколению При практической реализации алгоритма возникает задача определения правил останова.
В качестве критериев останова будем использовать следующие: 1.
окончание выделенного лимита времени (заданного числа итераций) или 2.
функция качества Fit "лучшей" хромосомы достигла определенного значения с заданной точностью.
152

[стр.,154]

Для построения эффективного алгоритма обучения нейронной сети, повышающего вероятность нахождения глобального минимума ошибки обучения и скорость сходимости к экстремуму, проведем исследование генетического алгоритма при решении непрерывных задач оптимизации.
Выбор тестовых задач Для исследования были выбраны тестовые функции, характеризующиеся различным количеством оптимизируемых параметров, числом экстремумов как локальных, так и глобальных, видом области поиска.
Цель исследовании накопление достаточного опыта для создания генетических алгоритмов, обеспечивающих наиболее эффективное решение оптимизационной задачи поиска минимума ошибки обучения Е( 1.
/П: функция Розенброка [131]: 7*4(эс,,х2,х3,дг4) = 100(л:2 х 2)2 + ( 1 х .) 2 Ограничения: —10<*, < 10, / = 1,2.
Минимум: F(X*) = 0 .
2.
Функция Жилинскаса [130]: 2 ^(х!,х2) —х{ + х\ Соу18*.
Сов1&х2 Ограничения: 0 < *,• < 2 к .
Минимум: F(X*) 2 3.
функция Пауэлла [130]: ^(л:,,хг,дг3,х4) = (х, -Ь10х2) 2 +5(х3 -л :4) 2 +(х2 -2 х 3) 4 +10(х, -дг4) 4 Ограничения: —10< х, < 10, / = 1,2 ,3,4.
Минимум: /Г(Х*) = 0 .
153

[Back]