Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 48]

Для удовлетворения требования нормальности признаков предлагается использовать универсальный и простой способ нормализации признаков, основанный на нормализации распределений случайных величин в условиях центральной предельной теоремы, и известный в радиотехнике под названием метода накопления [78].
Применительно к проблеме нормализации распределений признаков в задачах распознавания этот метод формулируют следующим образом [82].
Пусть случайная характеристика
£, присущая распознаваемым классам s,, s2,..., sK, имеет распределение, отличное от нормального.
В качестве нормально распределенного признака, используемого при распознавании, используют случайную величину х = (2-8) i=l где i = 1, q.
измерения случайной характеристики Метод накопления
(2.8) обобщается также и на многомерный случай.
Основным вопросом практического применения метода накопления для нормализации распределений признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной.
Достаточно подробно он рассмотрен в [66, 82].

Оптимизация временных характеристик системы распознавания
одномерных нормальных совокупностей Рассмотрим оптимизацию характеристик системы распознавания одномерных нормальных совокупностей s, и s2 с неизвестными средними значениями а, и а2 и общей известной дисперсией а2, основываясь на теоретических результатах, полученных в [85] для ошибок распознавания первого и второго рода а и (3.
Поскольку в рассматриваемом случае размерность признакового пространства р = 1, в процессе оптимизации минимизируется суммарный объем р обучающих и контрольных выборок (то есть общее количество р требуемых для распознавания наблюдений), необходимый для достижения заданного уровня достоверности (непревышения вероятностями ошибок а и
3 их верхних границ а* и р*) при заданном ограничении, заключающемся в том, что нормированная разность между средними значениями 48
[стр. 41]

авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной.
Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y = (Y,,Y2,..., Yq) линейному преобразованию А в новое пространство X = (х 19Х2, Х рj Х = AY.
(1.14) При этом преобразование (1.14) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна).
Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами X{ на диагонали [87] (Хх о ...
О\ ]\Г = АТМА = Л О Х2 (1.15) v 0 0 ...
X j После указанного преобразования отбирают р (р < q ) новых признаков, сотем собственным числам Х> матрицы М*, которые оказываютответствующих наибольшее влияние на значение выбранного критерия J(Y).
Для удовлетворения требования нормальности признаков предлагается использовать универсальный и простой способ нормализации признаков, основанный на нормализации распределений случайных величин в условиях центральной предельной теоремы, и известный в радиотехнике под названием метода накопления [78].
Применительно к проблеме нормализации распределений признаков в задачах распознавания этот метод формулируют следующим образом [82].
Пусть случайная характеристика
присущая распознаваемым классам отличное от нормального мально распределенного признака, используемого при распознавании, используют случайную величину х (1.16) i=i где i = 1, q измерения случайной характеристики Метод накопления (1.16) обобщается также и на многомерный случай.
Основным вопросом практического применения метода накопления для нормализации распределений признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной.
Достаточно подробно он рассмотрен в [66, 82].


[стр.,42]

Оптимизация временных характеристик системы распознавания 42 номерных нормальных Рассмотрим оптимизацию характеристик системы распознавания одномерных нормальных совокупностей Sj и s2 с неизвестными средними значениями а1 и а, и общей известной дисперсией а 2, основываясь на теоретических результа2 тах, полученных в [85] для ошибок распознавания первого и второго рода а и р .
Поскольку в рассматриваемом случае размерность признакового пространства р = 1, в процессе оптимизации минимизируется суммарный объем р обучающих и контрольных выборок (то есть общее количество р требуемых для распознавания наблюдений), необходимый для достижения заданного уровня достоверности (непревышения вероятностями ошибок а и
Р их верхних границ а и Р ) при заданном ограничении, заключающемся в том, что нормированная разность между средними значениями совокупностей (а2-аЛ/су должна быть не меньше некоторого минимального значения аЕ> 0, в качестве которого, как было сказано ранее, целесообразно взять точность измерения этой разности в реальных системах.
Выражение для суммарного объема обучающих и контрольной выборок р, получающееся из (1.13) при К = 2, m, = m2 = т , b = 1 и, поскольку рассматривается одномерный случай, р = 1, имеет вид р = 2m+ п Для наиболее часто применяемого на практике критерия максимального правдоподобия и одинаковых размерах обучающих выборок вероятности ошибок распознавания равны между друг другу и выражаются через табулированную функцию ошибокФ(х) в соответствии с формулой [82, (2.17)] а = Р = F (-a /a 2)-F(a/a1)+ F(a/a2)-F(-a/a 1 Ф 2 2 а где а = (а2а 1) /а , а, = ^4 / п +1 / тх+1 / т2, <т2= *Jl/ mt +1/ т2, и известны соотношения F(x) = [o(x/V2j/2] + l/2, F(х) = fl / 2 фх / л/2j / 2J, ф(х) = ~ (ехр(—z2)dz, V t c 0J v 7 которая может быть использована для оптимизации характеристик распознающей ф ф системы, заключающейся в отыскании объемов ш и п обучающих и контрольной выборок, минимизирующих критерий и удовлетворяющих ограничениям Ь4(п, m, а, Р) на допустимые объемы выборок и вероятности ошибок [83]: р = 2m + п —»т т ; а = Р = — фа6Vm/2j®fag/(2л/1/т +2/п <а* =Р* (1.18) 2 2

[стр.,44]

I 44 Анализ результатов расчетов, приведенных в [85, табл.
5.1, рис.
5.1] показывает, что при сравнительно невысоких требованиях к точности измерения разности средних ае (а£= 0,1) совокупностей (и, следовательно, при минимально допустимом расстоянии между указанными средними, равном 0,1а ) и при необходимости обеспечения удовлетворительного уровня достоверности распознавания 0,9 оптимальные значения объемов указанных выборок составляют m = 886 и n = 1302.
Повышение уровня требуемой достоверности распознавания до значений 0,99; 0,999; 0,9999 при том же значении ае достигается путем достаточно умеренного увеличения оптимальных объемов обучающих т* =2334; 4050 и 5868 и контрольных п =4140; 7860 и 11734 выборок.
Однако, дальнейшее повышение требований к точности измерения разности средних вплоть до 0,01 (и, следовательно, сокращение минимально допустимого расстояния между средними значениями совокупностей до 0,01от) при необходимости обеспечения высокой достоверности распознавания 1 -а = 1Р = 0,99; 0,999; 0,9999 приводит к значительному увеличению объемов обучающих и контрольной выборок вплоть до т* = 586800 и n* = 1173400 при 1а* = 0,9999 и аЕ= 0,01.
Это вполне согласуется с физическими представлениями, поскольку распознавание со столь высокой достоверностью нормальных совокупностей, средние значения которых могут быть так близко расположены друг от друга, требует достаточно большого времени обучения для составления хороших эталонных описаний совокупностей, то есть получения возможно более качественных оценок средних и а2, и достаточно большого времени для принятия решения для обеспечения его высокой достоверности.
Данная процедура оптимизации может быть обобщена на случай распознавания одномерных нормальных совокупностей, у которых неизвестны не только л средние а,, а2, но и общая дисперсия о [85].
При этом также минимизируется суммарный объем обучающих и контрольной выборок, необходимых для достижения заданного уровня достоверности, при том же ограничении: нормированная разность между средними значениями совокупностей (а2а1/ а) должна быть не меньше а8> 0.
Однако, при неизвестной дисперсии а 2 записать выражение вероятностей ошибок через параметр а8и объемы обучающих m и контрольной п выборок по типу (1.17) оказывается затруднительным, вследствие чего для нахождения требуемых значений т и п наряду со строгими целесообразно использовать приближенные методы, основанные на том, что при переходе от неизвестной дисперсии к известной вероятности ошибок распознавания изменяются незначительно [85].
Если вместо априорно известной дисперсии а 2 в процессе решения задачи оптимизации (1.18) (1.24) использовать ее оценку, формируемую в процессе обучения, то в результате получаются значения объемов выборок и nj, * * которые являются приближениями к истинным значениям ш и п Для случая оптимизации систем распознавания одномерных образов, раз

[Back]