Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 30]

30 На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д.
Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами.
Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др.

[94].
При числе классов К > 2 задача распознавания называется многоальтернативной.
Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К > 2 является следующее
[150]: контрольная выборка {хЛ" принадлежит классу , если плотностей вероятности для классов sk, k = l, К, полученные по классифицированным обучающим выборкам, a cfu заданные положительные пороги сравнения.
Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10).
Причем только для байесовского критерия при этом получаются достаточно простые соотношения
[94].
В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими.
Легко приводятся к виду (1-10) многоальтернативные
критерии максимума апостериорной вероятности и максимального правдоподобия.
Кроме того, правило (1.10) обладает одним существенным недостатком.
Оно не всегда позволяет выбрать наиболее правдоподобный класс, иначе говоря, возможны ситуации, когда для данной контрольной выборки, заведомо принадлежащей к одному из альтернативных классов, оно вообще не дает никакого решения.
Это происходит вследствие нарушения условия транзитивности правила принятия решений.
В
[147] рассмотрены возможные случаи нарушения данного условия.
Для того, чтобы избежать подобных ситуаций необходимо накладывать некоторые ограничения на соотношения значений порогов с(и.
В частности для трехальтернативного случая достаточным условием транзитивности решающего правила (1.10), обеспечивающим существование решения для любой выборки Хп не приводящей к вырождению функции
юк(Хп), к = 1, К, является условие [102, достаточному условию удовлетворяют критерии максимума апостериорной вероятности и максимального правдоподобия.
(1.10) для всех £, и=1,К , и * £ , при этом ©к(х,,х2, ...,хп) к = 1,К оценки {sK}.
Можно убедиться, что (1.11)
[стр. 38]

где oon(xj, х2, х п Sjj условная совместная n-мерная плотность вероятности выборочных значений х1}х2,...,х при условии их принадлежности к классу S:.J Однако, если в теории статистических решений указанные плотности соп(х15х2, х п Sj') являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, соДх,, х2, ..., xnjSj), а их оценки юДхи х2, ..., хп Sj), получаемые в процессе обучения, поэтому в решающем правиле с порогом с сравнивается уже не само отношение правдоподобия L, а его оценка L, полученная в ходе обучения: Л ©„(х,,х2, xnIs2) L 1 -2 -п 7 ^ с.
(1.9) toп(Х], х2,..., Х„ S,) Л При L > с принимается решение: контрольная выборка принадлежит класА су s2, в противном случае (при L < с) она считается принадлежащей классу st.
На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д.
Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами.
Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др.

[54].
При числе классов К > 2 задача распознавания называется многоальтернативной.
Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К> 2 является следующее
[85]: контрольная выборка (х;}“ принадлежит классу s^, если л оол(xi *Хл****эх„ У = ; > с,ц (1.10) a>u(x„x2,...,x n) ___ для всех t , u = 1, К, и Ф£, при этом ©к(х,, х2,..., хп) к = 1, К оценки плотностей вероятности для классов sk, k = 1, К , полученные по классифицированным обучающим выборкам, а заданные положительные пороги сравнения.
Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10).
Причем только для байесовского критерия при этом получаются достаточно простые соотношения
[54].
В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими.
Легко приводятся к виду (1.10) много


[стр.,39]

39 альтернативные критерии максимума апостериорной вероятности и максимального правдоподобия.
Кроме того, правило (1.10) обладает одним существенным недостатком.
Оно не всегда позволяет выбрать наиболее правдоподобный класс, иначе говоря, возможны ситуации, когда для данной контрольной выборки, заведомо принадлежащей к одному из альтернативных классов, оно вообще не дает никакого решения.
Это происходит вследствие нарушения условия транзитивности правила принятия решений.
В
[82] рассмотрены возможные случаи нарушения данного условия.
Для того, чтобы избежать подобных ситуаций необходимо накладывать некоторые ограничения на соотношения значений порогов с(и.
В частности для трехальтернативного случая достаточным условием транзитивности решающего правила (1.10), обеспечивающим существование решения для любой выборки Хп не приводящей к вырождению функции
шk(Xn), k = 1, К , является условие [82, (1.46)] Ckik2Ck2k3^k3kl 1 (1.11) для любых классов sk , sk , sks из множества {sK}.
Можно убедиться, что доста* ч точному условию удовлетворяют критерии максимума апостериорной вероятности и максимального правдоподобия.
1.6.5.
В п.
1.5.
была сформулирована общая постановка задачи оптимизац распознающей системы.
Сформулируем задачу оптимизации временных и пространственных параметров системы распознавания применительно к параметрическому случаю.
Как уже отмечалось, процесс распознавания содержит в себе формирование признакового пространства размерностью р, обучение распознающей системы с использованием обучающих выборок объемом mk, и принятие решений о принадлежности контрольной выборки объемом nk к одному из классов sk.
При этом возможны ошибки распознавания, возникающие с определенной вероятностью, зависящей от большого количества факторов.
Указанные вероятности определяются следующим образом [85].
Обозначим через а к вероятность отнесения выборки из п контрольных наблюдений к какому-нибудь из классов Sj, s2,..., sk_j, sk+1,..., sK, отличному от класса sk, когда на самом деле выборка относится именно к этому классу, а через Рк вероятность отнесения выборки контрольных наблюдений к классу sk, когда в действительности она ему не принадлежит.
При двух классах, К = 2, выполняются очевидные равенства а! = Р2 и а 2= РР и вероятности а, и Р2 совпадают с вероятностями ошибок 1-го и 2-го рода.
Вероятности ошибок распознавания а к, (Зк, г = 1,К определяют достоверность D, являющуюся одним Из параметров задачи оптимизации (1.7), и получение для них аналитических формул, позволяющих вычислять а к и (Зк, к = 1, К при любых конкретных значениях mk, п, р, К, d^, I , г = 1,К, £ * г, дает возможность конкретизировать общую постановку задачи оптимизации (1.7) в слу

[Back]