Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 30]

3.
Не испытывать резких изменений при плавных изменениях изображения.
4.
Быть по возможности независимыми.
5.
Подчеркивать элементы изображения, существенные для различения классов.
Все перечисленные выше свойства признаков при всей их нестрогости и неформальности являются теми
интуитивными направляющими, которыми руководствуется исследователь при формировании набора признаков применительно к конкретной задаче распознавания.
Помимо проблемы «изобретения» признаков
существует не менее важная задача приведения готового набора признаков к оптимальному виду.
Эта задача включает в себя нормализацию, устранение зависимости между признаками и отбор наиболее существенных признаков.
Нормализация значений признаков существенна для классификаторов, которые полагаются на соразмерность масштаба осей пространства признаков, например, если в классификаторе используется евклидово расстояние
[20].
Простейший способ такой нормализации это линейное преобразование, после которого среднее значение признака оказывается равным нулю, а дисперсия единице.
Устранение зависимостей между признаками важно для многих типов классификаторов, так как они в
гой или иной степени опираются на предположения о независимости признаков.
Наиболее распространенным способом устранения этой зависимости является преобразование Кару
йена Лоева [21], которое заменяет набор признаков их линейными комбинациями, полученными как собственные вектора дисперсионной матрицы.
Отбор наиболее существенных признаков может проводиться на основе оценки их различающей способности.
Один из способов оценки различающей способности трансформированных признаков использует преобразование Карунена Лоева: чем больше собственное значение матрицы дисперсии, тем большей различающей способностью обладает признак.
30
[стр. 14]

Вычисление признаков Первый этап работы признакового классификатора заключается в том, чтобы по изображению вычислить его признаки.
Цель перехода от исходного изображения к вектору признаков двоякая.
С одной стороны, признаки это обычно более простой математический объект, который в идеальном случае должен сохранять существенную информацию и отсеять посторонний шум.
С другой стороны, выделение признаков разбивает задачу классификации на две подзадачи вычисление признаков и классификацию по признакам.
Это позволяет использовать все многообразие методов классификации, разработанных в общей теории распознавания [13, 14, 15, 16, 17].
Тип и число признаков, вычисляемых по исходному изображению, являются важнейшими характеристиками, определяющими качество работы классификатора.
Хотя важность правильного выбора признается всеми исследователями, до сих пор выбор признаков определяется скорее интуицией и опытом исследователя, чем какими-то четкими и обоснованными научными методиками.
«Хорошие» признаки должны обладать следующими свойствами: 1.
Сохранять достаточный объем информации о символе для последующей классификации.
2.
Не зависеть от трансформаций изображения символа, которые не являются существенными для классификации.
Например, толщина штриха или небольшие отличия в наклоне и положении не должны существенно влиять на значения признаков.
3.
Не испытывать резких изменений при плавных изменениях изображения.
4.
Быть по возможности независимыми.
5.
Подчеркивать элементы изображения, существенные для различения классов.
Все перечисленные выше свойства признаков при всей их нестрогости и неформальности являются теми
подсознательными направляющими, которыми руководствуется исследователь при формировании набора признаков применительно к конкретной задаче распознавания.
Помимо проблемы «изобретения» признаков
существуют не менее важные задачи преобразования готового набора признаков к оптимальному виду.
Это включает в себя нормализацию, устранение зависимости между признаками и отбор наиболее существенных признаков.
14

[стр.,15]

Нормализация значений признаков существенна для классификаторов, которые полагаются на соразмерность масштаба осей пространства признаков, например, если в классификаторе используется евклидово расстояние [18].
Простейший способ такой нормализации это линейное преобразование, после которого среднее значение признака оказывается равным нулю, а дисперсия единице.
Ус транение зависимостей между признаками важно для многих типов классификаторов, так как они в
той или иной степени опираются на предположения о независимости признаков.
Наиболее распространенным способом устранения этой зависимости является преобразование Карунена-Лоева
[19], которое заменяет набор признаков их линейными комбинациями, полученными как собственные вектора дисперсионной матрицы.
Преобразование Карунена Лоева дает также и способ оценки различающей способности трансформированных признаков: чем больше собственное значение матрицы дисперсии, тем большей различающей способностью обладает признак.
Для оценки различающей способности можно использовать и более простые критерии, например, отношение средней дисперсии признака по классам к дисперсии этого признака по всей обучающей выборке.
Большинство критериев оценки различающей способности не может заменить прямого эксперимента, показывающего, как влияет исключение того или иного признака на результат работы классификатора.
Тем нс менее, возможность быстрого получения грубой оценки различающей способности часто оказывается очень важной для оперативного принятия решений.
А для многих классификаторов с длительной процедурой обучения грубое ранжирование признаков являегся единственным практически приемлемым инструментом их отбора.
Построение классификатора Классификация это процедура соотнесения вектора признаков с эталонными значениями признаков, вычисленными во время обучения и настройки системы.
Результат сопоставления может быть представлен либо в виде простого выбора класса, либо в виде упорядоченного по убыванию вероятности списка классов, возможно, с численной оценкой достоверности каждого кандидата.
Различные приемы построения классификаторов сводятся фактически к аппроксимации неизвестной апостериорной вероятности.
В качестве исходной 15

[Back]