Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 97]

97 В [27] было доказано, что для цепей Маркова с бесконечной длиной при постепенном уменьшении Ь от некоторого, априорно заданного значения, до нуля система достигает оптимальной конфигурации с вероятностью, равной 1.
На практике невозможно реализовать цепи Маркова бесконечной длины
и поэтому используются приближенные алгоритмы АИО.
Суть метода оптимизации по алгоритму АИО состоит в том, что процесс формирования
конфшураций начинается при некотором начальном значении Ю, затем процедура уменьшения I повторяется до тех пор, пока I не будет равно минимальному значению, при котором система достигает оптимального состояния [27].
На эту процедуру влияют следующие факторы:
1.
начальное значение управляющего параметра /
(начальное значение Го обычно полагается равным 1); 2.
правило уменьшения /; при определенном числе итераций параметр
I изменяется по формуле: • ^пе\¥ “ ^ о Ш ’ 4.
где а параметр, контролирующий уменьшение температуры ; 0< а <1 (задается пользователем в пределах а =0,8 -0,9999
[27]; 5.
длина цепи Маркова с (задается пользователем) число
итерации, которые выполняются при 6.
конечное значение 1к(критерий останова).
Варьируя данные параметры, можно получать различные реализации АИО.

Проведем сравнительный анализ разработанного алгоритма на сложных тестовых функциях Химмельблау, Жилинскаса, Роджерса (рис.
3.3).
[стр. 203]

тижимы из / в результате одного возмущения системы.
В этом случае вероятность перехода к новой конфигурации вычисляется как: Рч \j\D\, если Н} е.О О, если Н .
£ D Величина Ьу, согласно [119], определяется следующим образом ехр(-Д/^ //), если Д ^ > о , 1, если < О V (4.6) где Д/^ = /7( # /) / г(///)приращение определяемой пользователем стоимо-] стной функции.
При этом предполагается, что вероятности возмущений симметричны, а также, что из данной конфигурации //, любая другая может быть достигнута посредством конечного числа возмущений.
В [120] было доказано, что для цепей Маркова с бесконечной длиной при постепенном уменьшении / от некоторого, априорно заданного значения, до нуля система достигает оптимальной конфигурации с вероятностью, равной 1.
На практике невозможно реализовать цепи Маркова бесконечной длины
[122] и поэтому используются приближенные алгоритмы АИО.
Суть метода оптимизации по алгоритму АИО состоит в том, что процесс формирования
конфигураций начинается при некотором начальном значении затем процедура уменьшения Гповторяется до тех пор, пока / не будет равно минимальному значению, при котором система достигает оптимального состояния [121].
На эту процедуру влияют следующие факторы
202

[стр.,204]

1) начальное значение управляющего параметра t ( начальное значение /0 обычно полагается равным 1 [119]); 2 ) правило уменьшения /; при определенном числе итераций параметр t изменяется по формуле: View o l d * где а параметр, контролирующий уменьшение температуры ; 0 < а <1 (задается пользователем в пределах а =0 ,8 -0,9999 [121, 122]; 3) длина цепи Маркова с (задается пользователем) число итераций, которые выполняются при t=const\ 4) конечное значение f*(критерий останова).
Варьируя данные параметры, можно получать различные реализации АИО.

Рассмотрим возможности использования АИО в процедуре генетического поиска при обучении МНС.
Определим алгоритм обучения на основе ГА и имитации отжига в следующем виде.
Шаг 1.
Сформировать начальную популяцию.
Вычислить функции фитнесса для всех хромосом популяции:F i t ( &= 1,2,...,г.
Установить начальное и конечное значение параметров имитации отжига /0 и Г*.
Задать число а в интервале [0 ,1], определяющее скорость изменения параметра/: tl+1 = ti+ att.
(4.7) Шаг 2.
Применить к популяции генетические операторы.
203

[Back]