Проверяемый текст
И. В. Заенцев, Нейронные сети: основные модели // Воронеж, 1999
[стр. 104]

104 На первой схеме все векторы весов и обучающего множества имеют одно и то же значение.
По мере обучения обучающие векторы расходятся к своим истинным значениям, а векторы весов следуют за ними.
В итоге в сети не остается необученных нейронов и плотность векторов весов соответствует плотности векторов обучающего множества.
Однако, процесс увеличения
(3 требует многих итераций, и время обучения растягивается.
Это существенный недостаток метода выпуклой комбинации.

3.2.
Оптимизация распределения кредита между несколькими клиентами вусловиях ограниченного кредитного ресурса Пусть имеется К объектов кредитования, участвующих в распределении денежных средств, общей суммой V.
Для г'-ого объекта выделяется сумма кредита объёмом V ,-.
За показатель вероятности возврата вложенных средств, принимается коэффициент Nj score.
Далее рассматриваются только фирмы, для которых: Ni>Nrp, где Ngp нижний предел показателя вероятности возврата кредита, определяе’ мый априори.
Также необходимо задать коэффициент (Q), определяющий процентную ставку кредита, а также два критерия, определяющих тип кредита и экономическую отрасль для данного юридического лица:
[стр. 56]

56 Рис.
.
Обучение методом выпуклой комбинации.
На первой схеме все векторы весов и обучающего множества имеют одно и то же значение.
По мере обучения обучающие векторы расходятся к своим истинным значениям, а векторы весов сле дуют за ними.
В итоге в сети не остается необученных нейронов и плотность векторов весов соответ ствует плотности векторов обучающего множества.
Однако, процесс увеличения
β требует многих итераций, и время обучения растягивается.
Это существенный недостаток метода выпуклой комби нации.

Модификации алгоритма обучения Чувство справедливости: чтобы не допустить отсутствие обучения по любому из нейронов, вво дится "чувство справедливости".
Если нейрон чаще других выигрывает "состязание", т.е.
получает максимальный выход чаще, чем в 1 из M случаев, то его значение выхода искусственно уменьшает ся, чтобы дать возможность выиграть другим нейронам.
Это включает все нейроны сети в процесс обучения.
Коррекция весов пропорционально выходу: в этой модификации корректируются не только веса вы игравшего нейрона, но и всех остальных, пропорционально их нормированному выходу.
Норми ровка выполняется по максимальному значению выхода слоя или по его среднему значению.
Этот метод также исключает "мертвые" нейроны и улучшает распределение плотности весов.
Режимы работы сети Обычная сеть Кохонена работает в режиме аккредитации.
Это означает, что активируется единст венный нейрон Кохонена с максимальным значением выхода.
Можно не затормаживать остальные нейроны слоя Кохонена, а пронормировать выходные сиг налы, например, функцией активации softmax:

[Back]