тия статистической теории распознавания образов [80, 82]. В указанной литературе рассматривается подход к оптимизации на основе постановки задачи, 47 сформулированной в предыдущем пункте. Основой решения этой задачи является увязка значений вероятностей ошибок распознавания а ки Рк с временными и пространственными параметрами распознающей системы. Известно [54], что оптимальные решающие правила и методы оценки достоверности распознавания хорошо разработаны лишь для случая исследова» ния нормально распределенных независимых признаков при полной априорной определенности относительно параметров их распределения, что никогда не встречается в реальной практике. Для решения задач распознавания в реальных условиях авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной. Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y = (Y,, Y2,..., Yq) линейному преобразованию А в новое пространство X = (X,, Х2,..., Хр) При этом преобразование (1.14) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна). Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами на диагонали [87] Х= AY. (1.14) М* = АТМА = А % о ... 0> о а,2 ... (1.15) 10 О ... X ) |
чае параметрической априорной неопределенности. Как уже мыло отмечено ранее, возможны различные подходы к выбору критерия оптимальности НСV) и ограничений hj(V) Однако, как правило, при синтезе распознающих систем основным является требование обеспечения гарантированного уровня достоверности принимаемых решений, состоящее в том, что вероятности ошибок распознавания а к и {Зк, к = 1, К не должны пре40 вышать некоторых заданных значений а и Р ни для одного из имеющихся классов s,,..., sK. При этом в качестве критерия оптимальности системы распознавания естественно принимать затраты на обеспечение заданного уровня достоверности (стоимостные, временные и т.д.). Так, если С, стоимость измерения j-ro признака, как правило, одинаковая для всех классов, а b количество актов распознавания, которые необходимо произвести за заданный промежуток времени, то стоимость распознавания [82] к н Т с . Т Х + Ьп (1.12) j=l чк=1 При Ъ= 1 и Cj = Сдля всех j = 1, р , опуская постоянный множитель в критерии (1.12), задачу оптимизации распознающей системы (1.7) можно записать в виде: к р Y m k + п _ > m i n ; k=l a k < а ,p k (1.13) Фактически (1.13) означает минимизацию числа измерений признаков, необходимых для того, чтобы обеспечить непревышение вероятностями ошибок распознавания a k и Зк заданных значений а* и р* соответственно ни для одного из распознаваемых классов. авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной. Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y = (Y,,Y2,..., Yq) линейному преобразованию А в новое пространство X = (х 19Х2, Х рj Х = AY. (1.14) При этом преобразование (1.14) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна). Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами X{ на диагонали [87] (Хх о ... О\ ]\Г = АТМА = Л О Х2 (1.15) v 0 0 ... X j После указанного преобразования отбирают р (р < q ) новых признаков, сотем собственным числам Х> матрицы М*, которые оказываютответствующих наибольшее влияние на значение выбранного критерия J(Y). Для удовлетворения требования нормальности признаков предлагается использовать универсальный и простой способ нормализации признаков, основанный на нормализации распределений случайных величин в условиях центральной предельной теоремы, и известный в радиотехнике под названием метода накопления [78]. Применительно к проблеме нормализации распределений признаков в задачах распознавания этот метод формулируют следующим образом [82]. Пусть случайная характеристика присущая распознаваемым классам отличное от нормального мально распределенного признака, используемого при распознавании, используют случайную величину х (1.16) i=i где i = 1, q измерения случайной характеристики Метод накопления (1.16) обобщается также и на многомерный случай. Основным вопросом практического применения метода накопления для нормализации распределений признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной. Достаточно подробно он рассмотрен в [66, 82]. |