Проверяемый текст
И. В. Заенцев, Нейронные сети: основные модели // Воронеж, 1999
[стр. 97]

Применяется для тех моделей сетей, где не требуется последовательное соединение слоев нейронов друг за другом.
Выбор функции активации определяется: 1.
Спецификой задачи; 2.
Удобством реализации на ЭВМ, в виде электрической схемы или другим способом; 3.
Алгоритмом обучения: некоторые алгоритмы накладывают ограничения на вид функции активации, их нужно учитывать.
Чаще всего вид нелинейности не оказывает принципиального влияния на решение задачи.
Однако удачный выбор может сократить время обучения в несколько раз.

3.1.4.
Сеть Кохонена.
Обучение сети Задача классификации заключается в разбиении объектов на классы, когда основой разбиения служит вектор параметров объекта.
Объекты в пределах одного класса считаются эквивалентными с точки зрения критерия разбиения.
Сами классы часто бывают неизвестны заранее, а формируются динамически.

Классы зависят от предъявляемых объектов, и поэтому добавление нового объекта требует корректирования системы классов.
Будем характеризовать объекты, подлежащие классификации, вектором параметров
х р еХ, имеющим N компонент, компоненты обозначаем нижним индексом: хр = (хр,...,х ')т.
Вектор параметров единственная характеристика объектов при их классификации.
Введем множество классов
С',...,СМ= {Ст} в пространстве классов С: (С1и С2 ...
U См) с С Пространство классов может не совпадать с пространством объектов X и иметь другую размерность.
В простейшем случае, когда пространства классов и объектов совпадают, X =
С, классы представляют собой области пространства
[стр. 23]

23 ( ) 2 2 1 2 NET m OUT e σ πσ − − = Применяется в случаях, когда реакция нейрона должна быть максимальной для некоторого опре деленного значения NET.
9.
Линейная функция, OUT = K NET, K=const.
Применяется для тех моделей сетей, где не требу ется последовательное соединение слоев нейронов друг за другом.

Рис.
.
Виды функций активации.
Выбор функции активации определяется: 1.
Спецификой задачи.
2.
Удобством реализации на ЭВМ, в виде электрической схемы или другим способом.
3.
Алгоритмом обучения: некоторые алгоритмы накладывают ограничения на вид функции акти вации, их нужно учитывать.
Чаще всего вид нелинейности не оказывает принципиального влияния на решение задачи.
Одна ко удачный выбор может сократить время обучения в несколько раз.

Ограничения модели нейрона 1.
Вычисления выхода нейрона предполагаются мгновенными, не вносящими задержки.
Непо средственно моделировать динамические системы, имеющие "внутреннее состояние", с помо щью таких нейронов нельзя.
2.
В модели отсутствуют нервные импульсы.
Нет модуляции уровня сигнала плотностью импуль сов, как в нервной системе.
Не появляются эффекты синхронизации, когда скопления нейро нов обрабатывают информацию синхронно, под управлением периодических волн возбужде ния торможения.
3.
Нет четких алгоритмов для выбора функции активации.
4.
Нет механизмов, регулирующих работу сети в целом (пример гормональная регуляция актив ности в биологических нервных сетях).


[стр.,50]

50 Задача классификации Сети Кохонена Задача классификации заключается в разбиении объектов на классы, когда основой разбиения слу жит вектор параметров объекта.
Объекты в пределах одного класса считаются эквивалентными с точки зрения критерия разбиения.
Сами классы часто бывают неизвестны заранее, а формируются динамически
(как, например, в сетях Кохонена).
Классы зависят от предъявляемых объектов, и по этому добавление нового объекта требует корректирования системы классов.
Будем характеризовать объекты, подлежащие классификации, вектором параметров
p X∈x , име ющим N компонент, компоненты обозначаем нижним индексом: ( )1 ,..., Tp p p Nx x=x .
Вектор парамет ров — единственная характеристика объектов при их классификации.
Введем множество классов {
}1 ,..., M m C C C= в пространстве классов С: ( )1 2 ...
M C C C C∪ ∪ ⊂ Пространство классов может не совпадать с пространством объектов X и иметь другую размер ность.
В простейшем случае, когда пространства классов и объектов совпадают, X =
C, классы пред ставляют собой области пространства X, и объект xp будет отнесен к одному из классов m0 , если 0mp C∈x .
В общем случае X и C различны.
Определим ядра классов { } 1 ,...,m m =c c c в пространстве классов C, как объекты, типические для своего класса.
К примеру, если для классификации по национальности выбрать параметры {цвет глаз, рост, цвет волос}, то ядро класса "русский" может иметь параметры {голубоглазый, рост 185, волосы русые}, и к этому классу можно отнести объект с параметрами {светло голубоглазый, рост 182, волосы темно русые}, т.к.
из ядер "русский", "эстонец", "киргиз" параметры объекта больше все го похожи на ядро "русский".
Очевидно, что близость объекта к ядру необходимо оценивать численно.
Введем меру близости ( ),p m d x c — скалярную функцию от объекта и ядра класса, которая тем меньше, чем больше объект похож на ядро класса.
Могут потребоваться вспомогательные меры близости, определенные для двух объектов, ( )1 2 ,p p d x x , и для двух ядер классов, ( )1 2 ,m m d c c .
Чаще всего применяется эвклидова мера: ( ) ( ) 2 , i i i d x y= −∑x y или "city block": ( ), i i i d x y= −∑x y Задавшись числом классов M, можно поставить задачу классификации: найти M ядер классов { }m c и разбить объекты { }p x на классы { }m C , т.е.
построить функцию m(p) таким образом, чтобы мини мизировать сумму мер близости: ( ) ( )min , m pp p D d   =    ∑ x c Функция m(p), определяющая номер класса по индексу p множества объектов { }p x , задает разби ение на классы и является решением задачи классификации.

[Back]