Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 29]

29 распределения значений признаков.
При этом был сделан вывод, что имеющиеся в настоящее время теоретические результаты по оптимизации многомерных систем непараметрического распознавания практически не могут быть использованы для оптимизации реальных (в общем случае многомерных) систем распознавания произвольно распределенных образов, поскольку они не учитывают статистической зависимости признаков (имеющей большое влияние на достоверность распознавания), не обеспечивают выражения ограничений на достоверность и межклассовые расстояния через параметры оценок неизвестных плотностей вероятности, охватывают достаточно узкий класс распределений, и фактически не обеспечивают решения задачи оптимизации в наиболее важном для практических приложений случае многомерного распознавания.
Решение проблемы оптимизации систем распознавания произвольно распределенных образов авторам видится на пути нахождения преобразований, обеспечивающих нормализацию указанных распределений, что позволит эффективно использовать параметрические методы распознавания и оптимизации, при которых достоверность распознавания выражается в аналитическом виде через параметры распознаваемых классов и межклассовые расстояния и полностью обеспечивается учет статистической связи между признаками и группами признаков.

1.4.4.
Рассмотрим процедуру принятия решений.
Выбор решающего правила, позволяющего относить контрольную выборку наблюдений к одному из взаимоисключающих классов, производится в соответствии с теорией статистических решений с учетом априорной информации и характеристик, полученных в процессе обучения.
В рамках этой теории все виды решающих правил К = 2 основаны на формировании отношения правдоподобия L и сравнении его с определенным порогом с, значение которого определяется выбранным критерием качества
[94] соп(х1,х ,,...,х п S, L = ") -1 2 — n -I ' SSc, (1.8) ©n(xp x2,...,x n s, где соДх,, х2, ..., хп SjJ условная совместная n-мерная плотность вероятности выборочных значений хр х2,...,х п при условии их принадлежности к классу s,.
Однако, если в теории статистических решений указанные плотности
соДх,, х2, ..., хп Sjj являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, соДх,, х2, ..., хп оценки ©Дх,, х2, ..., хп s^, получаемые в процессе обучения, поэтому в решающем правиле с порогом с сравнивается уже не само отношениеА правдоподобия L, а его оценка L, полученная в ходе обучения: л СО«(Xtj Хп*•••j XnISn L = j y -----------------------------------------(L9) ® n ( X l> Х2> •••» X n I Sl) A При L > с принимается решение: контрольная выборка принадлежит классуЛ s2, в противном случае (при L < с) она считается принадлежащей классу s..
S: .
а их
[стр. 37]

37 для общего случая зависимых признаков в литературе аналитические выражения подобных "разнокомпонентных" законов отсутствуют.
И в [82] делается вывод о том, что на сегодня параметрические методы распознавания, в сущности, являются методами распознавания нормально распределенных совокупностей, так что задачей параметрического обучения в этих условиях является оценивание параметров (средних, дисперсий, ковариационных матриц) нормальных плотностей вероятности, используемых в решающем правиле.
В наиболее общем случае отсутствия априорных сведений не только о параметрах, но и о самом виде закона распределения наблюдаемой совокупности выборочных значений априорная неопределенность носит название непараметрической [54], а методы распознавания соответственно непараметрические.
В [85] была предпринята попытка разработать метод оптимизации систем непараметрического распознавания, который основан на непараметрическом методе распознавания, базирующемся на использовании полученных в ходе обучения операторных оценок плотностей вероятности.
Однако, как указывают авторы этого метода [82], практическое его применение крайне затруднено из-за требований наложения целого ряда жестких ограничений на функции распределения значений признаков.
При этом был сделан вывод, что имеющиеся в настоящее время теоретические результаты по оптимизации многомерных систем непараметрического распознавания практически не могут быть использованы для оптимизации реальных (в общем случае многомерных) систем распознавания произвольно распределенных образов, поскольку они не учитывают статистической зависимости признаков (имеющей большое влияние на достоверность распознавания), не обеспечивают выражения ограничений на достоверность и межклассовые расстояния через параметры оценок неизвестных плотностей вероятности, охватывают достаточно узкий класс распределений, и фактически не обеспечивают решения задачи оптимизации в наиболее важном для практических приложений случае многомерного распознавания.
Решение проблемы оптимизации систем распознавания произвольно распределенных образов авторам видится на пути нахождения преобразований, обеспечивающих нормализацию указанных распределений, что позволит эффективно использовать параметрические методы распознавания и оптимизации, при которых достоверность распознавания выражается в аналитическом виде через параметры распознаваемых классов и межклассовые расстояния и полностью обеспечивается учет статистической связи между признаками и группами признаков.

1.6.4.
Рассмотрим процедуру принятия решений.
Выбор решающего прави ла, позволяющего относить контрольную выборку наблюдений к одному из взаимоисключающих классов, производится в соответствии с теорией статистических решений с учетом априорной информации и характеристик, полученных в процессе обучения.
В рамках этой теории все виды решающих правил К = 2 основаны на формировании отношения правдоподобия L и сравнении его с определенным порогом с, значение которого определяется выбранным критерием качества
[541

[стр.,38]

где oon(xj, х2, х п Sjj условная совместная n-мерная плотность вероятности выборочных значений х1}х2,...,х при условии их принадлежности к классу S:.J Однако, если в теории статистических решений указанные плотности соп(х15х2, х п Sj') являются априорно известными, то в статистическом распознавании они, в принципе, не известны, вследствие чего в решающее правило (1.3) подставляются не сами плотности, соДх,, х2, ..., xnjSj), а их оценки юДхи х2, ..., хп Sj), получаемые в процессе обучения, поэтому в решающем правиле с порогом с сравнивается уже не само отношение правдоподобия L, а его оценка L, полученная в ходе обучения: Л ©„(х,,х2, xnIs2) L 1 -2 -п 7 ^ с.
(1.9) toп(Х], х2,..., Х„ S,) Л При L > с принимается решение: контрольная выборка принадлежит класА су s2, в противном случае (при L < с) она считается принадлежащей классу st.
На практике помимо обучающих выборок иногда имеется и другая, дополнительная информация о классах образов, могут выдвигаться различные требования к продолжительности, стоимости обучения и распознавания, достоверности решений и т.д.
Дополнительные сведения влияют на выбор порога и способ сравнения оценок отношений правдоподобия с порогами.
Указанная дополнительная информация учитывается путем выбора наиболее подходящего решающего правила из имеющихся в теории статистических решений: байесовского, Неймана Пирсона, минимаксного, Вальда, максимума апостериорной вероятности, максимального правдоподобия и др.
[54].
При числе классов К > 2 задача распознавания называется многоальтернативной.
Наиболее простым и естественным обобщением двухальтернативного решающего правила (1.9) на случай К> 2 является следующее [85]: контрольная выборка (х;}“ принадлежит классу s^, если л оол(xi *Хл****эх„ У = ; > с,ц (1.10) a>u(x„x2,...,x n) ___ для всех t , u = 1, К, и Ф£, при этом ©к(х,, х2,..., хп) к = 1, К оценки плотностей вероятности для классов sk, k = 1, К , полученные по классифицированным обучающим выборкам, а заданные положительные пороги сравнения.
Однако обобщение указанных выше правил принятия решений на многоальтернативный случай не всегда приводит к решающему правилу вида (1.10).
Причем только для байесовского критерия при этом получаются достаточно простые соотношения [54].
В других случаях соответствующие обобщения оказываются довольно сложными и громоздкими.
Легко приводятся к виду (1.10) много

[Back]