Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 84]

(4.3) И = ч/Х(2я,-1)-\ (х,р)= Х<2Л -1)Х(2А-*) • Ляс, «I (д, «О Норма эталонного вектора вычисляется заранее.
Полученный вес нормирован и находится в диапазоне от [-1, 1].
Для удобства работы диапазон весов [-1, 1] отображается на [0, Жщах], где 0 — лучший вес.
Для снижения влияния шумящих признаков это правило можно модифицировать, поставив вместо вероятностей р.
функцию: р' = /(р() О, /(*) = (х-1/6)2, -(.г + 1/6)2, И <1/6; х > 1 / 6; х < -1/6.
(4.4) Другими словами, вектор вероятностей подвергается нелинейному преобразованию, которое ослабляет влияние признаков с вероятностями, далекими от О и I.
Подобное преобразование делается один раз при обучении эталона и в дальнейшем при распознавании используются уже величины р[.
Обучение первого уровня
признакового классификатора проводится в несколько шагов и использует процедуру кластеризации «по первому приходящему», аналогичную используемой в растровом классификаторе.
На первом шаге осуществляется основная процедура кластеризации.
Вначале задается величина Жн,п — предельная оценка векторов признаков обучающей выборки на моделях своего класса.
Затем очередной вектор признаков из обучающей последовательности оценивается на всех имеющихся кластерах.
Вектор добавляется во вновь созданный 84
[стр. 58]

V.= /(?,) (3.5) /(*) = О • рЦ )х < 1/6 ■ (1-1/6)1 • рЦ х > 1 / 6 ’ -(х + 1/6)1 • рЦ х ^ -1 /6 то есть вектор вероятностей подвергается нелинейному преобразованию, которое ослабляет влияние признаков с вероятностями, далекими от 0 и 1.
Это преобразование делается один раз при обучении эталона и при распознавании используются уже величины р\.
Обучение первого уровня
использует процедуру кластеризации “по первому приходящему”, аналогичную используемой в растровом классификаторе.
Обучение проводится в несколько шагов.
Первый шаг — основная процедура кластеризации.
На этом шаге задается величина \Уцт — предельная оценка векторов признаков обучающей выборки на моделях своего класса.
Очередной вектор признаков из обучающей последовательности оценивается на всех имеющихся кластерах.

Если среди полученных оценок имеются оценки не хуже то вектор добавляется в кластер, давший лучшую оценку.
Если первоначальная оценка вектора хуже \\гцт, вектор добавляется во вновь созданный кластер.
По окончании этого процесса все изображения ещС раз перераспознаются и перераспределяются по кластерам (в процессе добавления кластер может сместиться и содержать вектора из соседнего кластера).
Второй шаг — удаление мелких кластеров.
На этом шаге задается пороговый размер кластера.
Далее берется наименьший кластер и, если его размер меньше порога, каждое из принадлежащих ему изображений переносятся в тот из оставшихся кластеров, который дает лучшую оценку.
Эта процеду ра выполняется до тех пор, пока минимальный размер кластера не превысит порог.
Третий ишг — объединение близких кластеров.
Описанный алгоритм может порождать кластеры, расположенные очень близко друг к другу.
Поэтому на третьем этапе такие близкие кластеры сливаются.
В соответствии с методом расчета веса, для оценки расстояния между кластерами используется угол между соответствующими им векторами признаков: 58

[Back]