Проверяемый текст
Комарцова, Людмила Георгиевна; Исследование нейросетевых и гибридных методов и технологий в интеллектуальных системах поддержки принятия решений (Диссертация 2003)
[стр. 90]

90‘ иметь разные 7УййУ-части) и для сокращения количества правил в базе знаний будем назначать степень принадлежности правилу каждой из пар обучающей выборки.
С этой целью будем включать в базу знаний только такие правила из конфликтной группы, которые имеют по сравнению с другими правилами наибольшую степень.
Степень принадлежности правилу cf {certainly factor) определим как:
с № ) =М \ Ш г гШ у ) (2.34) Вычислим, например, степени принадлежности для правила R\ и правила R2 по формуле : с № ) = М т М М м М М У ) =0-8 х 0.7 х 0.9 = 0.504 (2.35); cf(R2) = Мв\(>*,)Мс(гг)Мт(у) = 0.7х 1х 0.8 = 0.560 Отметим, что, если два и более сгенерированных правила имеют одни и те же /F -части и Г#£Л-части, то в базу знаний будем включать правило с максимальной степенью.
Таким образом, используя предложенный алгоритм, на основе заданной обучающей выборки можно сформировать нечеткие продукционные правила и тем самым в явном виде описать обученную нейронную сеть, т,е.
сделать ее логически прозрачной.
Для каждого нового входного вектора, не входившего в обучающую выборку, генерируется нечеткое правило, объясняющее полученный на НС результат.

Выводы по главе 2 1.
Исследована проблема структурно-параметрического синтеза нейронной сети связанная необходимостью подбора оптимального типа, топологии и метода обучения сети для решения прикладной задачи.
2.
Разработан модифицированный конструктивный, алгоритм подстройки топологии нейронной сети, позволяющий выявить значимые и незначимые нейроны в процессе их добавления в структуру сети, производить обучение только для незначимых нейронов и тем самым сократить время формирования топологии НС
[стр. 127]

ний будем назначать степень принадлежности правилу каждой из пар обучающей выборки.
С этой целью будем включать в базу знаний только такие правила из конфликтной группы, которые имеют по сравнению с другими правилами наибольшую степень.
Степень принадлежности правилу cf {certainlyfactor) определим как:
cf{Rt) = А (г,)//2(г2)//3(>>) (2.17) Вычислим, например, степени принадлежности для правила R\ и правила R2 по формуле (2.17): cf(Я,) = Мв\(й )ИА\Oi )Рс(У) = °-8 х °-7 х 0 9 = 0-504; cf(Я2) = fim(г,)//с(г2)цвх(у) = 0.7 х 1х 0.8 = 0.560 Отметим, что, если два и более сгенерированных правила имеют одни и те же /F-части и THEN-части, то в базу знаний будем включать правило с максимальной степенью.
Таким образом, используя предложенный алгоритм, на основе заданной обучающей выборки можно сформировать нечеткие продукционные правила итем самым в явном виде описать обученную нейронную сеть, т.е.
сделать ее логически прозрачной.
Для каждого нового входного вектора, не входившего в обучающую выборку, генерируется нечеткое правило, объясняющее полученный на НС результат.

2.6.
Выводы Исследование существующих в настоящее время систем представления знаний в ИСППР показало, что компромисс между такими свойствами, как со126

[стр.,183]

Таким образом, в отличие от метода, рассмотренного в [126], данный алгоритм позволяет выявлять значимые и незначимые нейроны в процессе их добавления в структуру сети, производить обучение только для незначимых нейронов, используя выражение (3.11) с учетом ограничений, налагаемых на скорость изменения ошибки обучения, и тем самым сократить время формирования топологии НС.
Несмотря на существенное сокращение количества обучаемых нейронов при использовании данного подхода, методика последовательного наращивания нейронов сети сохраняется.
Устранение недостатков последовательной процедуры наращивания возможно при использовании генетических алгоритмов.
3.3.2.
Формирование топологии нейронных сетей с помощью генетического алгоритма Оценим вычислительную сложность генетического алгоритма для определения оптимальной топологии НС.
В качестве фитнесс функции будем использовать выражение для вычисления ошибки обобщения (3.9).
Трудоемкость ГА будет определяться трудоемкостью алгоритма обучения НС, например, обратного распространения ошибки, результатом работы которого и является величина Еобщ.
Для алгоритма обратного распространения ошибки это величина порядка O(W), где W вектор межнейронных связей в НС.
Число межнейронных связей для полносвязной НС можно оценить сверху как: 1Ц ( л 2 + ••• + tip ) + w 2 ( W j + .
.
.
+ п р ) + .
.
.
+ n i ( я 2 + .
.
.
+ П р ) + .
.
.
+ / I , и , 182

[Back]