43 где соДх,, х2, ..., хп Sj) условная совместная n-мерная плотность вероятности выборочных значений х ,, х2,..., хппри условии их принадлежности к классу Sj. Однако, если в теории статистических решений указанные плотности 0)Дх,, х2, х п Sj) являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, ооДх^ х2, ..., xn Sj), а их оценки Дх,, х2, ..., хп Sj), получаемые в процессе обучения, поэтому в решающем Л со правиле с порогом с сравнивается уже не само отношение правдоподобия L, а Л его оценка L, полученная в ходе обучения: L —(° п(х.1,Х2 Х,Ы а с. (1.9) СОп ( Х 1> Х 2> •••» Х п S l ) Л При L > с принимается решение: контрольная выборка принадлежит Л классу s2, в противном случае (при L < с) она считается принадлежащей классу s1• обучающих выборок иногда имеется и другая полнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д. Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами. Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др. [54]. При числе классов К > 2 задача распознавания называйся многоальтер-'" нативной. Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К > 2 является следующее [80]: контрольная выборка {хjj " принадлежит классу s,, если |
где oon(xj, х2, х п Sjj условная совместная n-мерная плотность вероятности выборочных значений х1}х2,...,х при условии их принадлежности к классу S:.J Однако, если в теории статистических решений указанные плотности соп(х15х2, х п Sj') являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, соДх,, х2, ..., xnjSj), а их оценки юДхи х2, ..., хп Sj), получаемые в процессе обучения, поэтому в решающем правиле с порогом с сравнивается уже не само отношение правдоподобия L, а его оценка L, полученная в ходе обучения: Л ©„(х,,х2, xnIs2) L 1 -2 -п 7 ^ с. (1.9) toп(Х], х2,..., Х„ S,) Л При L > с принимается решение: контрольная выборка принадлежит класА су s2, в противном случае (при L < с) она считается принадлежащей классу st. На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д. Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами. Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др. [54]. При числе классов К > 2 задача распознавания называется многоальтернативной. Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К> 2 является следующее [85]: контрольная выборка (х;}“ принадлежит классу s^, если л оол(xi *Хл****эх„ У = ; > с,ц (1.10) a>u(x„x2,...,x n) ___ для всех t , u = 1, К, и Ф£, при этом ©к(х,, х2,..., хп) к = 1, К оценки плотностей вероятности для классов sk, k = 1, К , полученные по классифицированным обучающим выборкам, а заданные положительные пороги сравнения. Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10). Причем только для байесовского критерия при этом получаются достаточно простые соотношения [54]. В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими. Легко приводятся к виду (1.10) много |