30 На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д. Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами. Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др. [94]. При числе классов К > 2 задача распознавания называется многоальтернативной. Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К > 2 является следующее [150]: контрольная выборка {хЛ" принадлежит классу , если плотностей вероятности для классов sk, k = l, К, полученные по классифицированным обучающим выборкам, a cfu заданные положительные пороги сравнения. Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10). Причем только для байесовского критерия при этом получаются достаточно простые соотношения [94]. В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими. Легко приводятся к виду (1-10) многоальтернативные критерии максимума апостериорной вероятности и максимального правдоподобия. Кроме того, правило (1.10) обладает одним существенным недостатком. Оно не всегда позволяет выбрать наиболее правдоподобный класс, иначе говоря, возможны ситуации, когда для данной контрольной выборки, заведомо принадлежащей к одному из альтернативных классов, оно вообще не дает никакого решения. Это происходит вследствие нарушения условия транзитивности правила принятия решений. В [147] рассмотрены возможные случаи нарушения данного условия. Для того, чтобы избежать подобных ситуаций необходимо накладывать некоторые ограничения на соотношения значений порогов с(и. В частности для трехальтернативного случая достаточным условием транзитивности решающего правила (1.10), обеспечивающим существование решения для любой выборки Хп не приводящей к вырождению функции юк(Хп), к = 1, К, является условие [102, достаточному условию удовлетворяют критерии максимума апостериорной вероятности и максимального правдоподобия. (1.10) для всех £, и=1,К , и * £ , при этом ©к(х,,х2, ...,хп) к = 1,К оценки {sK}. Можно убедиться, что (1.11) |
где oon(xj, х2, х п Sjj условная совместная n-мерная плотность вероятности выборочных значений х1}х2,...,х при условии их принадлежности к классу S:.J Однако, если в теории статистических решений указанные плотности соп(х15х2, х п Sj') являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, соДх,, х2, ..., xnjSj), а их оценки юДхи х2, ..., хп Sj), получаемые в процессе обучения, поэтому в решающем правиле с порогом с сравнивается уже не само отношение правдоподобия L, а его оценка L, полученная в ходе обучения: Л ©„(х,,х2, xnIs2) L 1 -2 -п 7 ^ с. (1.9) toп(Х], х2,..., Х„ S,) Л При L > с принимается решение: контрольная выборка принадлежит класА су s2, в противном случае (при L < с) она считается принадлежащей классу st. На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д. Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами. Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др. [54]. При числе классов К > 2 задача распознавания называется многоальтернативной. Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К> 2 является следующее [85]: контрольная выборка (х;}“ принадлежит классу s^, если л оол(xi *Хл****эх„ У = ; > с,ц (1.10) a>u(x„x2,...,x n) ___ для всех t , u = 1, К, и Ф£, при этом ©к(х,, х2,..., хп) к = 1, К оценки плотностей вероятности для классов sk, k = 1, К , полученные по классифицированным обучающим выборкам, а заданные положительные пороги сравнения. Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10). Причем только для байесовского критерия при этом получаются достаточно простые соотношения [54]. В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими. Легко приводятся к виду (1.10) много 39 альтернативные критерии максимума апостериорной вероятности и максимального правдоподобия. Кроме того, правило (1.10) обладает одним существенным недостатком. Оно не всегда позволяет выбрать наиболее правдоподобный класс, иначе говоря, возможны ситуации, когда для данной контрольной выборки, заведомо принадлежащей к одному из альтернативных классов, оно вообще не дает никакого решения. Это происходит вследствие нарушения условия транзитивности правила принятия решений. В [82] рассмотрены возможные случаи нарушения данного условия. Для того, чтобы избежать подобных ситуаций необходимо накладывать некоторые ограничения на соотношения значений порогов с(и. В частности для трехальтернативного случая достаточным условием транзитивности решающего правила (1.10), обеспечивающим существование решения для любой выборки Хп не приводящей к вырождению функции шk(Xn), k = 1, К , является условие [82, (1.46)] Ckik2Ck2k3^k3kl 1 (1.11) для любых классов sk , sk , sks из множества {sK}. Можно убедиться, что доста* ч точному условию удовлетворяют критерии максимума апостериорной вероятности и максимального правдоподобия. 1.6.5. В п. 1.5. была сформулирована общая постановка задачи оптимизац распознающей системы. Сформулируем задачу оптимизации временных и пространственных параметров системы распознавания применительно к параметрическому случаю. Как уже отмечалось, процесс распознавания содержит в себе формирование признакового пространства размерностью р, обучение распознающей системы с использованием обучающих выборок объемом mk, и принятие решений о принадлежности контрольной выборки объемом nk к одному из классов sk. При этом возможны ошибки распознавания, возникающие с определенной вероятностью, зависящей от большого количества факторов. Указанные вероятности определяются следующим образом [85]. Обозначим через а к вероятность отнесения выборки из п контрольных наблюдений к какому-нибудь из классов Sj, s2,..., sk_j, sk+1,..., sK, отличному от класса sk, когда на самом деле выборка относится именно к этому классу, а через Рк вероятность отнесения выборки контрольных наблюдений к классу sk, когда в действительности она ему не принадлежит. При двух классах, К = 2, выполняются очевидные равенства а! = Р2 и а 2= РР и вероятности а, и Р2 совпадают с вероятностями ошибок 1-го и 2-го рода. Вероятности ошибок распознавания а к, (Зк, г = 1,К определяют достоверность D, являющуюся одним Из параметров задачи оптимизации (1.7), и получение для них аналитических формул, позволяющих вычислять а к и (Зк, к = 1, К при любых конкретных значениях mk, п, р, К, d^, I , г = 1,К, £ * г, дает возможность конкретизировать общую постановку задачи оптимизации (1.7) в слу |