34 Пусть случайная характеристика ^ , присущая распознаваемым классам нормально распределенного признака, используемого при распознавании, используют случайную величину где i = 1, q измерения случайной характеристики £. Метод накопления (1.16) обобщается также и на многомерный случай. Основным вопросом практического применения метода накопления для нормализации распределении признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной. Достаточно подробно он рассмотрен в [114,147]. 1.5.2. Оптимизация временных характеристик системы распознавания одномерных нормальных совокупностей. Рассмотрим оптимизацию характеристик системы распознавания одномерных нормальных совокупностей Sj и s2 с неизвестными средними теоретических результатах, полученных в [150] для ошибок распознавания первого и второго рода а и Р. Поскольку в рассматриваемом случае размерность признакового пространства р = 1, в процессе оптимизации минимизируется суммарный объем р обучающих и контрольных выборок (то есть общее количество р требуемых для распознавания наблюдений), необходимый для достижения заданного уровня достоверности (непревышения вероятностями ошибок а и Р их верхних границ Ф Ф а и р ) при заданном ограничении, заключающемся в том, что нормированная разность между средними значениями совокупностей (а2a j /ст должна быть не меньше некоторого минимального значения аЕ> 0, в качестве которого, как было сказано ранее, целесообразно взять точность измерения этой разности в реальных системах. Выражение для суммарного объема обучающих и контрольной выборок р, получающееся из (1.13) при К = 2, ггц = m2 = т , Ь = 1 и, поскольку рассматривается одномерный случай, р = 1, имеет вид р = 2m + п Для наиболее часто применяемого на практике критерия максимального правдоподобия и одинаковых размерах обучающих выборок вероятности ошибок распознавания равны между друг другу и выражаются через табулированную функцию ошибокФ(х) в соответствии с формулой [147, (2.17)] s,, s2,..., sK, имеет распределение, отличное от нормального. В качестве q (1.16) значениями а, и а2 и общей известной дисперсией сг2, основываясь на ос= (3= F (-a /o ,2)-F(a/cr1)+ F(a/cr2)-F(-a/
| авторы предлагают ряд мер, которые позволяют свести поставленную задачу к известной. Так для выполнения условия независимости признаков предлагается на этапе формирования признакового пространства подвергать исходное пространство признаков Y = (Y,,Y2,..., Yq) линейному преобразованию А в новое пространство X = (х 19Х2, Х рj Х = AY. (1.14) При этом преобразование (1.14) является декоррелирующим, для чего в качестве столбцов матрицы преобразования выбирают собственные векторы общей ковариационной матрицы М распознаваемых совокупностей (которая при полном априорном знании точно известна). Сама ковариационная матрица М* в этом случае становится диагональной с собственными числами X{ на диагонали [87] (Хх о ... О\ ]\Г = АТМА = Л О Х2 (1.15) v 0 0 ... X j После указанного преобразования отбирают р (р < q ) новых признаков, сотем собственным числам Х> матрицы М*, которые оказываютответствующих наибольшее влияние на значение выбранного критерия J(Y). Для удовлетворения требования нормальности признаков предлагается использовать универсальный и простой способ нормализации признаков, основанный на нормализации распределений случайных величин в условиях центральной предельной теоремы, и известный в радиотехнике под названием метода накопления [78]. Применительно к проблеме нормализации распределений признаков в задачах распознавания этот метод формулируют следующим образом [82]. Пусть случайная характеристика присущая распознаваемым классам отличное от нормального мально распределенного признака, используемого при распознавании, используют случайную величину х (1.16) i=i где i = 1, q измерения случайной характеристики Метод накопления (1.16) обобщается также и на многомерный случай. Основным вопросом практического применения метода накопления для нормализации распределений признаков является вопрос выбора параметра q с точки зрения скорости сходимости функции распределения случайной величины х к нормальной. Достаточно подробно он рассмотрен в [66, 82]. Оптимизация временных характеристик системы распознавания 42 номерных нормальных Рассмотрим оптимизацию характеристик системы распознавания одномерных нормальных совокупностей Sj и s2 с неизвестными средними значениями а1 и а, и общей известной дисперсией а 2, основываясь на теоретических результа2 тах, полученных в [85] для ошибок распознавания первого и второго рода а и р . Поскольку в рассматриваемом случае размерность признакового пространства р = 1, в процессе оптимизации минимизируется суммарный объем р обучающих и контрольных выборок (то есть общее количество р требуемых для распознавания наблюдений), необходимый для достижения заданного уровня достоверности (непревышения вероятностями ошибок а и Р их верхних границ а и Р ) при заданном ограничении, заключающемся в том, что нормированная разность между средними значениями совокупностей (а2-аЛ/су должна быть не меньше некоторого минимального значения аЕ> 0, в качестве которого, как было сказано ранее, целесообразно взять точность измерения этой разности в реальных системах. Выражение для суммарного объема обучающих и контрольной выборок р, получающееся из (1.13) при К = 2, m, = m2 = т , b = 1 и, поскольку рассматривается одномерный случай, р = 1, имеет вид р = 2m+ п Для наиболее часто применяемого на практике критерия максимального правдоподобия и одинаковых размерах обучающих выборок вероятности ошибок распознавания равны между друг другу и выражаются через табулированную функцию ошибокФ(х) в соответствии с формулой [82, (2.17)] а = Р = F (-a /a 2)-F(a/a1)+ F(a/a2)-F(-a/a 1 Ф 2 2 а где а = (а2а 1) /а , а, = ^4 / п +1 / тх+1 / т2, <т2= *Jl/ mt +1/ т2, и известны соотношения F(x) = [o(x/V2j/2] + l/2, F(х) = fl / 2 фх / л/2j / 2J, ф(х) = ~ (ехр(—z2)dz, V t c 0J v 7 которая может быть использована для оптимизации характеристик распознающей ф ф системы, заключающейся в отыскании объемов ш и п обучающих и контрольной выборок, минимизирующих критерий и удовлетворяющих ограничениям Ь4(п, m, а, Р) на допустимые объемы выборок и вероятности ошибок [83]: р = 2m + п —»т т ; а = Р = — фа6Vm/2j®fag/(2л/1/т +2/п <а* =Р* (1.18) 2 2 |