Проверяемый текст
И. В. Заенцев, Нейронные сети: основные модели // Воронеж, 1999
[стр. 99]

I 99 cm ° = — — £ x p(ЗЛЗ) ^(®o) p : m ( p ) = n ) 0 где N(mo) число объектов xpв классе m0.
При разбиении на классы должна быть минимизирована суммарная мера близости для всего множества
{хр} входных объектов расписано скалярное произведение.
D= S Z ( xf cr (p))2= z t xp> xp>-2(xp’cm(p))+(cm(p)-cm(p))] (ЗЛ4> p i р В этой сумме два слагаемых не зависят от способа разбиения и постоянны: 2 (ст(р),сm(p)) = const, X (хр,хр) = const р р Поэтому задача поиска минимума D эквивалентна поиску максимума выражения: minD max X 2 ХТс{”^ (3.15) р • Запишем вариант алгоритма классификации для поиска максимума этой функции: 1.
Цикл: для каждого вектора
хр { 2.
Цикл: для каждого m { 3.
Рассчитать £xfc™ = Dm ,I> i } // конец цикла 4.
Находим то, для которого, m0:max{Dm,p} Ш 5.
Относим объект к классу т 0.
} И конец цикла Такой алгоритм легко реализуется в виде нейронной сети.
Для этого требуется
М сумматоров, находящих все Dmp, и интерпретатора, находящего сумматор с максимальным выходом.
[стр. 52]

52 Результат этого этапа — новый набор ядер { }m c .
Сеть Кохонена Если для классификации применять нейронные сети, необходимо формализовать задачу.
Самый очевидный способ: выберем в качестве входных данных вектор параметров единственного объекта.
Результатом работы сети будет код класса, к которому принадлежит предъявленный на входе объект.
В нейросетях принято кодирование номером канала.
Поэтому сеть будет иметь M выходов, по числу классов, и чем большее значение принимает выход номер m0 , тем больше "уверенность" сети в том, что входной объект принадлежит к классу m0 .
Полезно применить функцию активации SOFTMAX, тогда сумма выходов всегда будет равна единице.
Каждый выход можно будет трактовать как вероят ность того, что объект принадлежит данному классу.
Все выходы образуют полную группу, т.к.
сумма выходов равна единице, и объект заведомо относится к одному из классов.
Выберем евклидову меру близости ().
В этом случае ядро класса, минимизирующее сумму мер близости для объектов этого класса, совпадает с центром тяжести объектов: ( ) ( ) 0 0:0 1m p p m p mN m = = ∑c x где ( )0N m — число объектов p x в классе m0 .
При разбиении на классы должна быть минимизирована суммарная мера близости для всего мно жества {
}p x входных объектов: ( ) ( ) 2 m pp i i p i D = − =∑∑ x c ( ) ( ) ( ) ( ) ( ) ( ), 2 , , m p m p m pp p p p  = − +  ∑ x x x c c c — расписано скалярное произведение.
В этой сумме два слагаемых не зависят от способа разбие ния и постоянны: ( ) ( ) ( ),
const m p m p p =∑ c c , ( ), constp p p =∑ x x Поэтому задача поиска минимума D эквивалентна поиску максимума выражения: ( ) min max m pp i i p i D x c→ ∑∑ Запишем вариант алгоритма классификации для поиска максимума этой функции: 1.
Цикл: для каждого вектора
p x { 2.
Цикл: для каждого m { 3.
Рассчитать ,p m m p i i i x c D=∑ .
} // конец цикла 4.
Находим m0 , для которого { }, 0 : max m p m m D 5.
Относим объект к классу m0 .
} // конец цикла Такой алгоритм легко реализуется в виде нейронной сети.
Для этого требуется
M сумматоров, на ходящих все ,m p D , и интерпретатора, находящего сумматор с максимальным выходом.

[Back]