Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 87]

Количество признаков определяется заданием суммарного требуемого количества информации.
Обучение линейного классификатора Дифференциальные классификаторы для всех близких пар классов создаются в процессе обучения эталонов.
Входными данными для алгоритма обучения линейного дифференциального классификатора являются два множества векторов признаков для каждого из разделяемых кластеров, а выходными коэффициенты построенного классификатора и различная статистическая и отладочная информация.

Вектор признаков можно рассматривать как точку в многомерном евклидовом пространстве.
Тогда решающая функция представляется как гиперплоскость в этом пространстве.
Решение принимается в зависимости от того, по какую сторону от плоскости находится точка.
Пусть 0(2) = \У0 + (IV, 2) — искомый линейный классификатор для шага /, а 2}*},2}2) —обучающие векторы.
Коэффициенты классификатора
\У.
находятся путём минимизации функционала: Для построения разделяющей плоскости используется градиентный метод.
В качестве первого приближения плоскость устанавливается перпендикулярно линии, соединяющий центры кластеров.
При этом точка их пересечения равноудалена от центров кластеров.
Далее вычисляется расстояние от плоскости до всех изображений, и плоскость смещается так, чтобы уменьшить суммарную ошибку классификации: (4.7) 87
[стр. 59]

(3.6) После такого слияния опять-таки проводится перераспознавание всех изображений и перераспределение их по кластерам.
Если в результате такого перераспределения появились мелкие кластеры, повторяется второй шаг.
Дифференциальные признаковые эталоны Дифференциальный эталон представляет собой линейный классификатор, разделяющий два кластера.
В качестве признаков дифференциальный классификатор использует: • относительную разность весов первого уровня, • относи1тельную разность весов первого уровня растрового классификатора, • признаки, используемые на первом уровне.
Гак как признаков много, причем на близких парах большинство из них имеет вполне определенные значение, классификатор строится не по всем признакам, а по некоторому их подмножеству.
Отбор признаков осуществляется точно так же, как и в растровом классификаторе: парамеграми являются количество информации и максимальное число признаков.
Для экономии места в эталоне, коэффициенты классификаторов хранятся в упакованном виде, как список пар (индекс, коэффициент).
Обучение линейного классификатора Входными данными для алгоритма обучения линейного дифференциального классификатора являются два множества векторов признаков для каждого из разделяемых кластеров, а выходными коэффициенты построенного классификатора и различная статистическая и отладочная информация.
Пусть В(2) = 1У0 +(№,2) — искомый линейный классификатор для шага I, а 2г (),2/ <2' —обучающие векторы.
Коэффициенты классификатора
IV} находятся путём минимизации функционала Минимизация производится методом градиентного спуска с помощью следующей итеративной процедуры: (3.7) 59

[Back]