(2.22) ; п —число начальных точек; гу —число решений задачи оптимизации; 2) среднее число необходимых вычислений целевой функции для класса тестовых задач [102] для целевой функции при решении задачи]. Первый критерий (2,21) определяет степень устойчивости алгоритма к попаданию в точки экстремумов, а второй (2.22) скорость сходимости к экстремуму. Применение современных вычислительных средств приводит к тому, что второй критерий становится не столь важным, поэтому при сравнении эффективности алгоритмов оптимизации будем в основном пользоваться первым критерием [44]. Для построения эффективного алгоритма обучения нейронной сети, повышающего вероятность нахождения минимума ошибки обучения и скорость сходимости к экстремуму, проведем исследование рассмотренных выше методов при решении непрерывных задач оптимизации [15, 17]. Для исследования были выбраны тестовые функции, характеризующиеся различным количеством оптимизируемых параметров, числом экстремумов, видом области поиска. Методика проведения экспериментов заключалась в следующем. Точка минимума считалась найденной, если разность значений функции в полученной точке и действительного минимума менее 10' . Для определения сходимости производилось сто запусков алгоритма из 100 различных точек. Исходные точки выбирались случайным образом, значение каждой из координат выбиралось на основе равномерного распределения в пределах ограничений для данной координаты. Таким образом, сходимость определялась как отношение количества схождений к общему количеству запусков с (2.23) где т} = и, !п] ПК ~, где ' — суммарное число иеооходимых вычислении |
где к —число тестовых задач; р , —п:1п\ п — число начальных точек; «у — число решений задачи оптимизации; 2 ) среднее число необходимых вычислений целевой функции для класса тестовых задач 1 к т = ’ ( 3 8 ) к ] = \ где тj n F !п,, где nF —суммарное число необходимых вычислений для целевой функции при решении задачиj. Первый критерий (3.7) определяет степень устойчивости алгоритма к попаданию в точки экстремумов, а второй (3.8) скорость сходимости к экстремуму. Применение современных вычислительных средств приводит к тому, что второй критерии становится не столь важным, поэтому при сравнении ГА с другими алгоритмами будем в основном пользоваться первым критерием. Для генетического алгоритма устойчивость связана с необходимостью постоянно увеличивать качество популяции от поколения к поколению, т.е. связана с возрастанием среднего значения Fit по популяции при переходе к следующему поколению При практической реализации алгоритма возникает задача определения правил останова. В качестве критериев останова будем использовать следующие: 1. окончание выделенного лимита времени (заданного числа итераций) или 2. функция качества Fit "лучшей" хромосомы достигла определенного значения с заданной точностью. 152 Для построения эффективного алгоритма обучения нейронной сети, повышающего вероятность нахождения глобального минимума ошибки обучения и скорость сходимости к экстремуму, проведем исследование генетического алгоритма при решении непрерывных задач оптимизации. Выбор тестовых задач Для исследования были выбраны тестовые функции, характеризующиеся различным количеством оптимизируемых параметров, числом экстремумов как локальных, так и глобальных, видом области поиска. Цель исследовании накопление достаточного опыта для создания генетических алгоритмов, обеспечивающих наиболее эффективное решение оптимизационной задачи поиска минимума ошибки обучения Е( 1. /П: функция Розенброка [131]: 7*4(эс,,х2,х3,дг4) = 100(л:2 х 2)2 + ( 1 х .) 2 Ограничения: —10<*, < 10, / = 1,2. Минимум: F(X*) = 0 . 2. Функция Жилинскаса [130]: 2 ^(х!,х2) —х{ + х\ Соу18*. Сов1&х2 Ограничения: 0 < *,• < 2 к . Минимум: F(X*) 2 3. функция Пауэлла [130]: ^(л:,,хг,дг3,х4) = (х, -Ь10х2) 2 +5(х3 -л :4) 2 +(х2 -2 х 3) 4 +10(х, -дг4) 4 Ограничения: —10< х, < 10, / = 1,2 ,3,4. Минимум: /Г(Х*) = 0 . 153 |