Проверяемый текст
Никонов Вячеслав Викторович. Методика и информационно-вычислительный комплекс интеллектуальной поддержки принятия решений на основе механизма немонотонного логического вывода и нейросетевых технологий (Диссертация 2010)
[стр. 116]

отклонений, чем больше т, тем меньше эта вероятность.
При мутации хромосомы представленной битовой цепочкой большую вероятность изменения имеют младшие биты, при этом бит подверженный мутации просто инвертируется.
После того как потомок создан, вычисляется функция ошибки для данного решения, если эта ошибка меньше максимальной ошибки в
популяции, то оно заменяет решение с максимальной ошибкой.
Стратегия удаления из популяции неприспособленных особей (худших решений) может быть и другой.
Приведенный далее алгоритм позволяет использовать для обучения сети не всю обучающую выборку сразу, а только ее часть, что существенно снижает время расчета ошибки работы сети и соответственно время обучения.
Шаг
I.
Задается число копий весовых коэффициентов (число особей в популяции).
Весовые коэффициенты в копиях заполняются случайными значениями.
Шаг 2.
Проверяется возможность смены комплекта обучения событие с малой вероятностью.
Если событие произошло, то случайным образом выбирается комплект обучения, для каждого решения в популяции определяется суммарная ошибка обучения и записывается в массив ошибок обучения каждой особи.
Суммарная ошибка определяется из уравнения
оъ.
Ei=Y\y{xu>wi)-du 'в1 , где NL число примеров в комплекте обучения, Ej — Vсуммарная ошибка для j-го решения (особи) в популяции, ь /-ый входной пример, к-ого комплекта, Wj весовые коэффициенты j-vо решения, dkj выходной пример,^ результат работы сети.
Шаг 3.
Определяются минимальные ошибки в массиве ошибок.
Шаг 4.
Для скрещивания выбираются два решения из популяции.
С большей вероятностью выбираются особи с самой маленькой ошибкой.
Шаг 5.
Из двух выбранных особей путем операции скрещивания
116
[стр. 84]

способами, путем переноса одной части хромосомы первого родителя и другой части хромосомы второго родителя, причем участки можно выбирать любым способом.
Также, можно получить веса потомка из среднего значения весов родителей.
Эффективно применить обе стратегии совместно.
Для ускорения сходимости, процесс выбора родителей можно сделать не равновероятным, а выбирать в качестве родителей наиболее приспособленные особи, либо выбирать наиболее приспособленные особи чаще, чем остальные.
После того как произведено скрещивание и получен потомок, производится изменение, какого либо гена (веса) потомка мутация.
Мутацию можно осуществить путем изменения веса па некую малую случайную величину, либо изменить вес полностью, но 'гак, чтобы сильное изменение было с меньшей вероятностью.
Можно применить обе стратегии совместно.
Второй способ можно осуществить с помощью генератора случайных чисел, среднее значение для которых будет текущее значение веса, а максимальное и минимальное отклонения будут зависеть от заранее выбранных ограничений.
Такой генератор случайных чисел может быть задан с помощью степенной функции и генератора случайных чисел равномерного распределения: т> 1, • ran = mean rand'"•(mean min),rand < 0,5, ran = mean + rand'" •(maxmean),rand > 0,5.
где m степень, которая позволяет регулировать вероятность больших отклонений, чем больше т, тем меньше эта вероятность.
При мутации хромосомы представленной битовой цепочкой большую вероятность изменения имеют младшие биты, при этом бит подверженный мутации просто инвертируется.
После того как потомок создан, вычисляется функция ошибки для данного решения, если эта ошибка меньше максимальной ошибки в
84

[стр.,85]

популяции, то оно заменяет решение с максимальной ошибкой.
Стратегия удаления из популяции неприспособленных особей (худших решений) может быть и другой.
Приведенный далее алгоритм позволяет использовать для обучения сети не всю обучающую выборку сразу, а только ее часть, что существенно снижает время расчета ошибки работы сети и соответственно время обучения.
Шаг
1.
Задается число копий весовых коэффициентов (число особей в популяции).
Весовые коэффициенты в копиях заполняются случайными значениями.
Шаг 2.
Проверяется возможность смены комплекта обучения событие с малой вероятностью.
Если событие произошло, то случайным образом выбирается комплект обучения, для каждого решения в популяции определяется суммарная ошибка обучения и записывается в массив ошибок обучения каждой особи.
Суммарная ошибка определяется из уравнения
где NL число примеров в комплекте обучения, Ej — суммарная ошибка для комплекта, wy-весовые коэффициенты у-го решения, dk l выходной пример, у результат работы сети.
Шаг 3.
Определяются минимальные ошибки в массиве ошибок.
Шаг 4.
Для скрещивания выбираются два решения из популяции.
С большей вероятностью выбираются особи с самой маленькой ошибкой.
Шаг 5.
Из двух выбранных особей путем операции скрещивания
получается потомок.
Осуществляется проход но всем нейронам сети, весовые коэффициенты в нейроне разделяются на две части, точка раздела выбирается случайным образом, в одну часть записываются весовые коэффициенты от первого родителя, в другую часть от второго.
у'-го решения (особи) в популяции, **•'/-ый входной пример, к-ого 85

[Back]