Количество признаков определяется заданием суммарного требуемого количества информации. Обучение линейного классификатора Дифференциальные классификаторы для всех близких пар классов создаются в процессе обучения эталонов. Входными данными для алгоритма обучения линейного дифференциального классификатора являются два множества векторов признаков для каждого из разделяемых кластеров, а выходными коэффициенты построенного классификатора и различная статистическая и отладочная информация. Вектор признаков можно рассматривать как точку в многомерном евклидовом пространстве. Тогда решающая функция представляется как гиперплоскость в этом пространстве. Решение принимается в зависимости от того, по какую сторону от плоскости находится точка. Пусть 0(2) = \У0 + (IV, 2) — искомый линейный классификатор для шага /, а 2}*},2}2) —обучающие векторы. Коэффициенты классификатора \У. находятся путём минимизации функционала: Для построения разделяющей плоскости используется градиентный метод. В качестве первого приближения плоскость устанавливается перпендикулярно линии, соединяющий центры кластеров. При этом точка их пересечения равноудалена от центров кластеров. Далее вычисляется расстояние от плоскости до всех изображений, и плоскость смещается так, чтобы уменьшить суммарную ошибку классификации: (4.7) 87 |
(3.6) После такого слияния опять-таки проводится перераспознавание всех изображений и перераспределение их по кластерам. Если в результате такого перераспределения появились мелкие кластеры, повторяется второй шаг. Дифференциальные признаковые эталоны Дифференциальный эталон представляет собой линейный классификатор, разделяющий два кластера. В качестве признаков дифференциальный классификатор использует: • относительную разность весов первого уровня, • относи1тельную разность весов первого уровня растрового классификатора, • признаки, используемые на первом уровне. Гак как признаков много, причем на близких парах большинство из них имеет вполне определенные значение, классификатор строится не по всем признакам, а по некоторому их подмножеству. Отбор признаков осуществляется точно так же, как и в растровом классификаторе: парамеграми являются количество информации и максимальное число признаков. Для экономии места в эталоне, коэффициенты классификаторов хранятся в упакованном виде, как список пар (индекс, коэффициент). Обучение линейного классификатора Входными данными для алгоритма обучения линейного дифференциального классификатора являются два множества векторов признаков для каждого из разделяемых кластеров, а выходными коэффициенты построенного классификатора и различная статистическая и отладочная информация. Пусть В(2) = 1У0 +(№,2) — искомый линейный классификатор для шага I, а 2г (),2/ <2' —обучающие векторы. Коэффициенты классификатора IV} находятся путём минимизации функционала Минимизация производится методом градиентного спуска с помощью следующей итеративной процедуры: (3.7) 59 |