Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 33]

к=ХуХ,ЕС(и'/''(уМ^у).
(2.1) где матрица штрафов С(>у*, г/(у)) характеризует штраф при принятии решения если вектор признаков у на самом деле принадлежит классу \ук.
В частном (но очень распространенном) случае оценкой качества работы классификатора служит общее число совершенных ошибок.
В этом случае матрица штрафов принимает упрощенный вид:
Учитывая это, а также используя правило условной вероятности Из этого уравнения следует, что для минимизации риска принятия неверною решения К классификатор должен выбирать класс >уу, который имеет максимальную Это интуитивно понятное решение принято называть Байесовским классификатором (но названию хорошо известной формулы Байеса из теории вероятностей).
Он фактически минимизирует среднее число ошибок, используя в качестве дискриминационной функции апостериорные вероятности классов.
При всей привлекательности и простоте этого классификатора воспользоваться им на практике
с(п(2.2) Р\х,у) = Р(х\ у)р(у), уравнение можно переписать следующим образом: апостериорную вероятность у).
33
[стр. 17]

недостаточной информации.
На практике выбор оптимального количества параметров делается опытным путем, с помощью тестовой выборки.
Классификатор, основанный на формуле Байеса Задачу распознавания можно сформулировать в общем виде как задачу выбора решающего правила, обеспечивающего минимальный риск.
Задавшись совместным распределением Р(\ук, V) вектора признаков V и возможных классов изображения \ук, риск можно определить как математическое ожидание штрафа, связанного с данным решением: Я = Еу 2к С(\ук, д(у)) Р(\ук, у), (2.1) где матрица штрафов С(\ук, 6(у)) характеризует штраф при принятии решения б(у), если вектор признаков у на самом деле принадлежит классу \ук.
В частном (но очень распространенном) случае оценкой качества работы классификатора
является общее число совершенных ошибок.
В этом случае матрица штрафов принимает упрощенный вид:
С(\ук, 6(у)) = 0, в случае правильного решения, =1, в случае неправильного решения (2.2) Учитывая это, а также используя правило условной вероятности Р(х, у) = Р(ху) Р(у), уравнение (2.1) можно переписать следующим образом: К = Р(у) Ек С(чук, с!(у)) Р(%уку) = 1уР(у)[(1к [Р(луку)])-РЫу)] = ^Р(у )[1-РЫу )] (2.3) Из уравнения (3.3) следует, что для минимизации риска принятия неверного решения Я классификатор должен выбирать класс \\ц, который имеет максимальную апостериорную вероятность Р(^у).
Это интуитивно понятное решение принято называть Байесовским классификатором
(по имени хорошо известной формулы Байеса из теории вероятностей).
Он фактически минимизирует среднее число ошибок, используя в качестве дискриминационной функции апостериорные вероятности классов.
При всей привлекательности и простоте этого классификатора воспользоваться им на практике
можно, к сожалению, только в простейших задачах, так как в подавляющем большинстве 17

[Back]