Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 47]

литературе рассматривается подход к оптимизации на основе постановки задачи, сформулированной в предыдущем пункте.
Основой решения этой задачи является увязка значений вероятностей ошибок распознавания
ак и А с временными и пространственными параметрами распознающей системы.
Известно [54], что оптимальные решающие правила и методы оценки достоверности распознавания хорошо разработаны лишь для случая исследования нормально распределенных независимых признаков при полной априорной определенности относительно параметров их распределения, что никогда не встречается в реальной практике.
Для решения задач распознавания в реальных условиях
авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной.
Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y =
(Yj, Y2,..., Yq) линейному преобразованию А в новое пространство Х = (х,, Х2,..., Хр) X = AY.
(2.6) При этом преобразование (2.6) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна).
Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами
Zj на диагонали [87] М* = АТМА = Л = /% о О Z, (2.7) о О ...
ZpJ После указанного преобразования отбирают р (р < q) новых признаков, соответствующих тем собственным числам X,матрицы М*, которые оказывают наибольшее влияние на значение выбранного критерия J(Y).
47
[стр. 40]

чае параметрической априорной неопределенности.
Как уже мыло отмечено ранее, возможны различные подходы к выбору критерия оптимальности НСV) и ограничений hj(V) i = 1, Q, Сj(V) = 0j, j = 1,J в (1.7).
Однако, как правило, при синтезе распознающих систем основным является требование обеспечения гарантированного уровня достоверности принимаемых решений, состоящее в том, что вероятности ошибок распознавания а к и {Зк, к = 1, К не должны пре40 вышать некоторых заданных значений а и Р ни для одного из имеющихся классов s,,..., sK.
При этом в качестве критерия оптимальности системы распознавания естественно принимать затраты на обеспечение заданного уровня достоверности (стоимостные, временные и т.д.).
Так, если С, стоимость измерения j-ro признака, как правило, одинаковая для всех классов, а b количество актов распознавания, которые необходимо произвести за заданный промежуток времени, то стоимость распознавания [82] к н Т с .
Т Х + Ьп (1.12) j=l чк=1 При Ъ= 1 и Cj = Сдля всех j = 1, р , опуская постоянный множитель в критерии (1.12), задачу оптимизации распознающей системы (1.7) можно записать в виде: к р Y m k + п _ > m i n ; k=l a k < а ,p k

(1.13) Фактически (1.13) означает минимизацию числа измерений признаков, необходимых для того, чтобы обеспечить непревышение вероятностями ошибок распознавания a k и Зк заданных значений а* и р* соответственно ни для одного из распознаваемых классов.
1.7.
Обзор методов оптимизации параметров распознающих систем в сл чае параметрической априорной неопределенности 1.7.1.
Рассмотрим основные результаты по оптимизации временных и пр странственных параметров систем распознавания, полученные в рамках развития статистической теории распознавания образов [85, 82].
В указанной литературе рассматривается подход к оптимизации на основе постановки задачи, сформулированной в предыдущем пункте.
Основой решения этой задачи является увязка значений вероятностей ошибок распознавания
a k и Рк с временными и пространственными параметрами распознающей системы.
Известно [54], что оптимальные решающие правила и методы оценки достоверности распознавания хорошо разработаны лишь для случая исследования нормально распределенных независимых признаков при полной априорной определенности относительно параметров их распределения, что никогда не встречается в реальной практике.
Для решения задач распознавания в реальных условиях
•s

[стр.,41]

авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной.
Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y =
(Y,,Y2,..., Yq) линейному преобразованию А в новое пространство X = (х 19Х2, Х рj Х = AY.
(1.14) При этом преобразование (1.14) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна).
Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами
X{ на диагонали [87] (Хх о ...
О\ ]\Г = АТМА = Л О Х2 (1.15) v 0 0 ...
X j После указанного преобразования отбирают р (р < q ) новых признаков, сотем собственным числам Х> матрицы М*, которые оказываютответствующих наибольшее влияние на значение выбранного критерия J(Y).
Для удовлетворения требования нормальности признаков предлагается использовать универсальный и простой способ нормализации признаков, основанный на нормализации распределений случайных величин в условиях центральной предельной теоремы, и известный в радиотехнике под названием метода накопления [78].
Применительно к проблеме нормализации распределений признаков в задачах распознавания этот метод формулируют следующим образом [82].
Пусть случайная характеристика присущая распознаваемым классам отличное от нормального мально распределенного признака, используемого при распознавании, используют случайную величину х (1.16) i=i где i = 1, q измерения случайной характеристики Метод накопления (1.16) обобщается также и на многомерный случай.
Основным вопросом практического применения метода накопления для нормализации распределений признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной.
Достаточно подробно он рассмотрен в [66, 82].

[Back]