Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 50]

Существует разновидность метода голосования, при котором каждому эксперту присваивается вес.
Вес отражает «надежность» классификатора и позволяет объединять классификаторы с
разными характеристиками.
Подбор весов может осуществляться вручную, на основе экспериментальных данных, или автоматически, как это было продемонстрировано в работе
[63].
Простота метода голосования позволила провести теоретический анализ, объясняющий связь между количеством экспертов, числом замен/отказов и выбранной иерархией голосования [64, 65].
Для комбинирования классификаторов можно применить Байесовское решающее правило с использованием упрощающего предположения о независимости классификаторов
[62].
Исходными данными для принятия решения являются матрицы кросс-ошибок, накапливаемые по обучающей выборке.
Допустим, что существует М классов плюс возможность отказа.
Пусть С матрица размером
А/х(А/+1).
Элемент матрицы С,у обозначает число изображений класса /,
отнесенных классификатором к классу у или в отказ.
Если имеется К классификаторов, получается К матриц кросс-ошибок.
Условная вероятность того, что изображение х принадлежит классу /'
при условии, что оно было отнесено классификатором к к классу у, может быть оценена как: Если изображение д; отнесено К классификаторами к классам е^х) = у'*, можно определить вероятность того, что изображение принадлежит к классу г.
(2.19) 50
[стр. 30]

Другой вариан т структурного подхода полагается на представление изображения символа в виде графа [57].
Процесс распознавания состоит в нахождении минимального преобразования, переводящего граф опознаваемого символа в эталонный граф.
2.5 Комбинирование классификаторов По многократным свидетельствам исследователей, разные классификаторы, примененные к одной задаче, ошибаются по-разному.
Это наблюдение породило естественное стремление объединить решения нескольких классификаторов для достижения более высокой точности, чем может обеспечить каждый из них в отдельности.
Методы комбинирования зависят от количества информации, выдаваемой классификатором в результате его работы.
Определяющими для метода комбинирования являются два аспекта сколько гипотез выдает классификатор на выходе (одну или упорядоченный список) и имеется ли численная оценка достоверности выданных гипотез.
Простейшим являегся метод голосования, который с успехом применялся для распознавания рукописных символов авторами работ [58, 59] и с небольшими модификациями в работах [60, 61].
Этот метод в исходном виде применим только для классификаторов, выдающих один класс без численной оценки.
Суть метода заключается в том, что на выходе выдается класс, который подтвержден большинством классификаторов.
Варьируя требуемую степень согласованности решений отдельных классификаторов, можно управлять в некоторых пределах соотношением числа замен/отказов.
Например, требуя единогласного решения, можно добиться уменьшения числа замен за счет увеличения числа отказов.
Существует разновидность метода голосования, при котором каждому эксперту присваивается вес.
Вес отражает "надежность" классификатора и позволяет объединять классификаторы с
существенно разными характеристиками.
Подбор весов может осуществляться вручную, на основе экспериментальных данных, или автоматически, как это было продемонстрировано в работе
[62].
Простота метода голосования позволила сделать теоретический анализ, объясняющий связь между количеством экспертов, числом замен/отказов и выбранной иерархией голосования [63, 64].
30

[стр.,31]

Для комбинирования классификаторов можно применить Байесовское решающее правило с использованием упрощающего предположения о независимости классификаторов [61].
Исходными данными для принятия решения являются матрицы кросс-ошибок, накапливаемые по обучающей выборке.
Допустим, что существует М классов плюс возможность отказа.
Пусть С матрица размером
М х ( М + 1).
Элемент матрицы Су обозначает число изображений класса
к отнесенных классификатором к классу] или в отказ.
Если имеется К.
классификаторов, получается К матриц кросс-ошибок.
Условная вероятность того, что изображение х принадлежит классу
1 при условии, что оно было отнесено классификатором к к классу], может быть оценена как Р(хеС.\ек{х) = /)= (2.19) Если изображение* отнесено К классификаторами к классам еь(х) -Д, можно определить вероятность того, что изображение принадлежит классу [: Ъе1(\) = Р(х е С, е\(х) =у/.........ек(х) (2.20) Используя формулы Байеса и предположения о независимости классификатора, ЬеЦ7) можно переписать в виде: Ье!{/) = П*.ДгеС' М*)°А) Х-1 П».1 Р(х 6 С‘ I еК (■*■) = Л ) (2.21) для 1 < 1 < М.
Б качестве наиболее вероятного принимается класс, имеющий максимальную достоверность Ье10).
Соотношением замен/отказов можно управлять, требуя от лучшего класса достоверности ЬеШ) > а, где а порог доверия.
2.6 Выводы Задачу предобработки изображения и задачу комбинирования классификаторов можно считать относительно хорошо разработанными направлениями.
Основным вопросом остается задача построения классификатора или системы классификаторов, обеспечивающих минимальное число ошибок распознавания.
Каждый из трех рассмотренных методов построения классификаторов обладает как достоинствами, так и недостатками.
31

[Back]