Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 41]

определенность носит название параметрической [54], а методы распознавания, применяемые в этих условиях, именуются параметрическими.
При этом многими авторами, в том числе и в
[80, 82], отмечается, что хотя с формальной точки зрения закон распределения выборочных значений может быть любым, на практике в параметрическом распознавании почти всегда используется нормальный закон.
Дело в том,,что при распознавании многомерных совокупностей каждая компонента выборочных значений (т.е.
наблюдаемые значения каждого признака) может иметь свой отличный от других компонент закон распределения.
Но тогда многомерное совместное распределение совокупности выборочных значений должно описываться некоторым многомерным законом, включающим в себя компоненты с различными законами распределения.
Однако
для общего случая зависимых признаков в литературе аналитические выражения подобных "разнокомпонентных" законов отсутствуют.
И в [82] делается вывод о том, что на сегодня параметрические методы распознавания, в сущности, являются методами!распознавания
нормально распределенных совокупностей, так что задачей параметрического обучения в этих условиях является оценивание параметров (средних, дисперсий, ковариационных матриц) нормальных плотностей вероятности, используемых в решающем правиле.
В наиболее общем случае отсутствия априорных сведений не только о параметрах, но и о самом виде закона распределения наблюдаемой совокупности выборочных значений априорная неопределенность носит название непараметрической [54], а методы распознавания соответственно непараметрические.
В
[80] была предпринята попытка разработать метод оптимизации системщ непараметрического распознавания, который основан на непараметрическом методе распознавания, базирующемся на использовании полученных в ходе обучения операторных оценок плотностей вероятности.
Однако, как указывают авторы этого метода [82], практическое его применение крайне затруднено изза требований наложения целого ряда жестких ограничений на функции
расРОССИИСКАЯ ГОСУДАРСТВЕННАЯ БИБЛИОТЕКА 41
[стр. 36]

36 знаков Y,,Y2,...,Y с пом ощ ью н о вы х признаков X,,Х2, Х р, среднее межклассовое расстояние, внутриклассовый разброс наблюдений, энтропию одного класса относительно другого и т.д.
Традиционные критерии, основанные на геометрических понятиях расстояния между классами, исходят из того, что значение указанного расстояния пропорционально достоверности расстояния.
Считают, что чем больше расстояние между классами в признаковом пространстве, тем больше различие между классами, тем легче его обнаружить и, следовательно, тем выше будет достоверность различения классов.
Максимизация расстояния между классами повышает "разделяющую силу признаков" [74], которая, как ожидается, обеспечит требуемую достоверность различения, особенно если само правило различения основано на том же самом критерии, что и выбор признаков.
1.6.3.
Рассмотрим процедуру обучения диагностической системы.
Источн ком информации о распознаваемых образах является совокупность результатов независимых наблюдений (выборочных значений), составляющих обучающую знавания (одномерной или многомерной) xs может быть либо одномерной, либо р-мерной случайной величиной.
Основной целью обучения являются преодоление априорной неопределенности о распознаваемых классах путем использования информации о них, содержащейся в обучающих выборках, и построение эталонных описаний классов, вид которых определяется способом их использования в решающих правилах [85].
Решающее значение для выбора метода распознавания имеет вид априорной неопределенности, для преодоления которой используется.
Если в результате предварительного анализа наблюдаемой совокупности выборочных значений (или на основе имеющейся априорной информации) оказывается возможным хотя бы с некоторым приближением установить вид закона их распределения, то априорная неопределенность относится лишь к параметрам этого распределения, так что целью обучения в этом случае становится получение оценок этих параметров.
Подобная априорная неопределенность носит название параметрической [54], а методы распознавания, применяемые в этих условиях, именуются параметрическими.
При этом многими авторами, в том числе и в
[85,82], отмечается, что хотя с формальной точки зрения закон распределения выборочных значений может быть любым, на практике в параметрическом распознавании почти всегда используется нормальный закон.
Дело в том, что при распознавании многомерных совокупностей каждая компонента выборочных значений (т.е.
наблюдаемые значения каждого признака) может иметь свой отличный от других компонент закон распределения.
Но тогда многомерное совместное распределение совокупности выборочных значений должно описываться некоторым многомерным законом, включающим в себя компоненты с различными законами распределения.
Однако
(обучающие) si)j = (x,,x2,...,x mkj и контрольную (экзаменационную) ,хп) выборки, причем в зависимости от характера задачи распо

[стр.,37]

37 для общего случая зависимых признаков в литературе аналитические выражения подобных "разнокомпонентных" законов отсутствуют.
И в [82] делается вывод о том, что на сегодня параметрические методы распознавания, в сущности, являются методами
распознавания нормально распределенных совокупностей, так что задачей параметрического обучения в этих условиях является оценивание параметров (средних, дисперсий, ковариационных матриц) нормальных плотностей вероятности, используемых в решающем правиле.
В наиболее общем случае отсутствия априорных сведений не только о параметрах, но и о самом виде закона распределения наблюдаемой совокупности выборочных значений априорная неопределенность носит название непараметрической [54], а методы распознавания соответственно непараметрические.
В
[85] была предпринята попытка разработать метод оптимизации систем непараметрического распознавания, который основан на непараметрическом методе распознавания, базирующемся на использовании полученных в ходе обучения операторных оценок плотностей вероятности.
Однако, как указывают авторы этого метода [82], практическое его применение крайне затруднено из-за требований наложения целого ряда жестких ограничений на функции
распределения значений признаков.
При этом был сделан вывод, что имеющиеся в настоящее время теоретические результаты по оптимизации многомерных систем непараметрического распознавания практически не могут быть использованы для оптимизации реальных (в общем случае многомерных) систем распознавания произвольно распределенных образов, поскольку они не учитывают статистической зависимости признаков (имеющей большое влияние на достоверность распознавания), не обеспечивают выражения ограничений на достоверность и межклассовые расстояния через параметры оценок неизвестных плотностей вероятности, охватывают достаточно узкий класс распределений, и фактически не обеспечивают решения задачи оптимизации в наиболее важном для практических приложений случае многомерного распознавания.
Решение проблемы оптимизации систем распознавания произвольно распределенных образов авторам видится на пути нахождения преобразований, обеспечивающих нормализацию указанных распределений, что позволит эффективно использовать параметрические методы распознавания и оптимизации, при которых достоверность распознавания выражается в аналитическом виде через параметры распознаваемых классов и межклассовые расстояния и полностью обеспечивается учет статистической связи между признаками и группами признаков.
1.6.4.
Рассмотрим процедуру принятия решений.
Выбор решающего прави ла, позволяющего относить контрольную выборку наблюдений к одному из взаимоисключающих классов, производится в соответствии с теорией статистических решений с учетом априорной информации и характеристик, полученных в процессе обучения.
В рамках этой теории все виды решающих правил К = 2 основаны на формировании отношения правдоподобия L и сравнении его с определенным порогом с, значение которого определяется выбранным критерием качества [541

[Back]