[стр. 41]
41 В [147] рассматривается часто встречающийся на практике случай пропорциональных матриц М, и М2 (М, = hM2,h > 0,h Ф1), и полагается для простотыш, = ш2= т,а*= (3*,к0=0. Записываются минимизируемый функционал и граничные условия исходя из выражения для ошибки классификации первого и второго рода [147, (3.47)]. Задача оптимизации решается стандартными численными методами. В [147, табл. 3.2] приведены оптимальные объемы контрольной п* и обучающих ш* выборок, обеспечивающие достоверность распознавания 1-а* =0,8; 0,9; 0,95; 0,99 при количестве признаков р=2 и 10, точностях измерения расстояния dE=0,01 ... 1,0 и значениях коэффициента h = 1,01 ... 2,0. Анализ результатов решения задачи оптимизации показывает, что с ростом h, при h близких к 1, преобладает тенденция, обуславливающая рост а и Р, что вдет к увеличению т* и п*, требуемых для достижения заданной достоверности 1-а*. Однако при дальнейшем увеличении h до 2,0 оптимальные значения т* и п* уменьшаются. Это объясняется тем, что с ростом h усиливается влияние Ф тенденции, ведущей к уменьшению а и р , и начиная с некоторого значения h ее Ф О влияние становится доминирующим. При этом п тем меньше, чем меньше de и чем больше р . Действительно, увеличение с ростом h дисперсий величин, составляющих обучающие и контрольные выборки из класса s2, должно приводить при постоянных m,n,dEи р к увеличению а и р , причем р в большей степени. С другой стороны, чем больше h, тем сильнее отличие распределений Npa,,M 1 и Npа 2,М2 друг от друга и тем меньше, следовательно, должны быть а и Р при неизменных m,n,dEи р. Как известно из рассмотрения случая равных ковариационных матриц М, и М2 (см. выше и [147, 149]), увеличение с ростом р числа оцениваемых параметров akj, к = 1,2, j = 1, р приводит к росту а и Р при неизменных m,n,dE и h . Этим объясняется рост т* и п* при увеличении числа признаков от 2 до 10 для h, близких к 1 [147, табл. 3.2] . Однако с ростом h достаточно быстро проявляется преобладание другой тенденции, ведущей к уменьшению а и Р и состоящей в том, что с ростом р при неизменных m,n,dEи h растет количество параметров, а именно дисперсий признаков, по которым имеет место отличие распределений Np{a1,M, j и Np{a2,M2] друг от друга. 1.5.4. Оптимизация размерности признакового пространства. Возможность повышения достоверности распознавания путем наращивания числа р признаков открывает дополнительный путь формирования признакового пространства без применения линейного преобразования пространства исходных признаков. В общем виде задачу формирования признакового пространства
|
[стр. 48]
48 Рассмотрим оптимизацию временных характеристик систем распознавания многомерных образов, различающихся векторами средних и ковариационными матрицами при фиксированном числе признаков. Основой для оптимизации многомерных ансамблей, различающихся неизвестными векторами средних а15 ш, и ковариационными матрицами М,, М2 является полученное в [82] выражение вероятности ошибки распознавания первого рода а и получающееся из него заменой к0 на к0, пц на m2, aj на а2, М, на М2 соответствующее выражение для вероятности ошибки распознавания второго рода 0 [82, (3.29), (3.30)]. В данном случае значения а и 0 за висят от величин n,m, ,m2,b8,D,p, где D = 0 0 d Задача оптимизации принимает вид [82, (3.46)]: Р ш, + т 2+п а mj,m2,b6,D,p) амежду компонентами неизвестных а, и а19заключающемсяДа а ,• а. •2j ll в том, что они не должны быть меньше некоторых минимальных значений а •, в качестве которых из практических соображений естественно взять точности измерения этих разностей Да^ в реальных системах, в силу чего в (1.32) [82] b АаЕ, а а®...а® т (1.33) где Аматрица декоррелирующего преобразования [1.15]. При близких значениях элементов матриц М, и М 2 и aj и а15когда достижение высокой достоверности распознавания а 1-0* возможно только за счет больших объемов выборок, а также при большом количестве используемых признаков р , вместо точных значений а и 0 для облегчения расчетов целесообразно использовать в (1.32) а 0 [см. (1.31)] и получаемое из него соответствующей заменой параметров выражение для 0О. В [82] рассматривается часто встречающийся на практике случай пропорциональных матриц Мj и М 2 (М, = hM2,h > 0,h Ф1), и полагается для простоты m1 m 2 m,a P\k о 0. Записываются минимизируемый функционал и граничные условия исходя из выражения для ошибки классификации первого и второго рода [82, (3.47)]. Задача оптимизации решается стандартными численными методами. В [82, табл. 3.2] приведены оптимальные объемы контрольной п и обучающих m выборок, обеспечивающие достоверность распознавания 1a * 0,8: 0,9; 0,95; 0,99 при количестве признаков р =2 и 10, точностях измерения расстояI
[стр.,49] ния dg=0,01 ... 1,0 и значениях коэффициента h = 1,01 ... 2,0. Анализ результатов решения задачи оптимизации показывает, что с ростом h, при h близких к 1, преобладает тенденция, обуславливающая рост а и р , что вдет к увеличению m и п*, требуемых для достижения заданной достоверности 1-а*. Однако при дальнейшем увеличении h до 2,0 оптимальные значения т и п уменьшаются. Это объясняется тем, что с ростом h усиливается влияние тенденции, ведущей к уменьшению а и р, и начиная с некоторого значения п ее влияние становится $ Л доминирующим. При этом h тем меньше, чем меньше dg и чем больше р . ь Действительно, увеличение с ростом h дисперсий величин, составляющих обучающие и контрольные выборки из класса s2, должно приводить при постоянных m,n,dgи р к увеличению а и р , причем Р в большей степени. С другой стороны, чем больше h, тем сильнее отличие распределений Np{a1,M 1} и Np{a2,M2} друг от друга и тем меньше, следовательно, должны быть а и р при неизменных m,n,dg и р. Как известно из рассмотрения случая равных ковариационных матриц Mj и М2 (см. выше и [82, 84]), увеличение с ростом р числа оцениваемых парамет-/ л ров akj, к = 1,2, j = 1, р приводит к росту а и р при неизменных m,n,de и h. Этим объясняется рост ш и п при увеличении числа признаков от 2 до 10 для h, близких к 1 [82, табл. 3.2]. Однако с ростом h достаточно быстро проявляется преобладание другой тенденции, ведущей к уменьшению а и р и состоящей в том, что с ростом р при неизменных m,n,dg и h растет количество параметров, а именно дисперсий признаков, по которым имеет место отличие распределений Np{a1,M1} и Np{a2,M2} друг от друга. 1.7.4. Оптимизация размерности признакового пространства Возможность повышения достоверности распознавания путем наращивания числа р признаков открывает дополнительный путь формирования признакового пространства без применения линейного преобразования пространства исходных признаков. В общем виде задачу формирования признакового пространства необходимо ставить, исходя из реальной обстановки, из требований к распознающей системе в целом [80]. В реальных условиях обычно требуется, чтобы принимаемые системой решения имели гарантированную достоверность, которая достигалась бы при минимуме стоимости используемого оборудования, энергетических затрат, времени обучения системы, времени принятия решения и т.д. В связи с этим характеристики достоверности неизбежно должны быть увязаны с количеством обучающих наблюдений, используемых для задания классов, объемом контрольных выборок, необходимых для принятия решений, а также со свойствами выби49
|