к=ХуХ,ЕС(и'/''(уМ^у). (2.1) где матрица штрафов С(>у*, г/(у)) характеризует штраф при принятии решения (у), если вектор признаков у на самом деле принадлежит классу \ук. В частном (но очень распространенном) случае оценкой качества работы классификатора служит общее число совершенных ошибок. В этом случае матрица штрафов принимает упрощенный вид: Учитывая это, а также используя правило условной вероятности Из этого уравнения следует, что для минимизации риска принятия неверною решения К классификатор должен выбирать класс >уу, который имеет максимальную Это интуитивно понятное решение принято называть Байесовским классификатором (но названию хорошо известной формулы Байеса из теории вероятностей). Он фактически минимизирует среднее число ошибок, используя в качестве дискриминационной функции апостериорные вероятности классов. При всей привлекательности и простоте этого классификатора воспользоваться им на практике с(п(у))= 0, в случае правильного решения, 1,в случае неправильного решения. (2.2) Р\х,у) = Р(х\ у)р(у), уравнение можно переписать следующим образом: апостериорную вероятность у). 33 |
недостаточной информации. На практике выбор оптимального количества параметров делается опытным путем, с помощью тестовой выборки. Классификатор, основанный на формуле Байеса Задачу распознавания можно сформулировать в общем виде как задачу выбора решающего правила, обеспечивающего минимальный риск. Задавшись совместным распределением Р(\ук, V) вектора признаков V и возможных классов изображения \ук, риск можно определить как математическое ожидание штрафа, связанного с данным решением: Я = Еу 2к С(\ук, д(у)) Р(\ук, у), (2.1) где матрица штрафов С(\ук, 6(у)) характеризует штраф при принятии решения б(у), если вектор признаков у на самом деле принадлежит классу \ук. В частном (но очень распространенном) случае оценкой качества работы классификатора является общее число совершенных ошибок. В этом случае матрица штрафов принимает упрощенный вид: С(\ук, 6(у)) = 0, в случае правильного решения, =1, в случае неправильного решения (2.2) Учитывая это, а также используя правило условной вероятности Р(х, у) = Р(ху) Р(у), уравнение (2.1) можно переписать следующим образом: К = Р(у) Ек С(чук, с!(у)) Р(%уку) = 1уР(у)[(1к [Р(луку)])-РЫу)] = ^Р(у )[1-РЫу )] (2.3) Из уравнения (3.3) следует, что для минимизации риска принятия неверного решения Я классификатор должен выбирать класс \\ц, который имеет максимальную апостериорную вероятность Р(^у). Это интуитивно понятное решение принято называть Байесовским классификатором (по имени хорошо известной формулы Байеса из теории вероятностей). Он фактически минимизирует среднее число ошибок, используя в качестве дискриминационной функции апостериорные вероятности классов. При всей привлекательности и простоте этого классификатора воспользоваться им на практике можно, к сожалению, только в простейших задачах, так как в подавляющем большинстве 17 |