Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 101]

100 dj(x) = x ' m i ш/ш,, i=l,2,..,M; (3.63) это выражение для решающей функции классификатора, построенного на принципе минимума расстояния для случая единственного эталона класса, причем в роли этого эталона выступает вектор средних значений образов, входящих в соответствующий класс.
Для этого решающего правила для каждого класса необходимо хранить лишь вектор средних значений образов и скаляр, равный квадрату нормы вектора математического ожидания.
Второе направление в построении решающих правил базируется на тяготении образов с нормальным распределением к образованию кластеров.
Также в п.1.1 отмечалось, что в теории распознавания сигналов в отношении процессов (сигналов), принадлежащих одному классу, высказывается гипотеза компактности [42, 142], т.е.
включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей.
Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков.
Поскольку распознаваемый класс сигналов является случайным процессом, N -мерный вектор его признаков у заключен в некоторой области G , причем эта область может быть бесконечной.
Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля.
Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала.

Разделяющая поверхность в нашем случае задается выражением Q(y) = 0;
(3.64) она охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна.
Необходимо найти эту поверхность.
При этом, если собственную область G пространства признаков определенного класса (например класса А ) задавать исходя из условия максимума
вероятности правильной классификации (3.65)Р(А) = f(o(yA)dx, G при фиксированном объеме выделенного пространства VA= J dy, (3.66) G то максимизируемый функционал I принимает вид [131] I = Jcd(yA)dy —A.
Jdy, (3.67) G где X множитель Лагранжа.
В [131] показано, что искомая граница Г выделенной области G должна удовлетворять условию со(уА) = Х, у еГ , (3.68)
[стр. 88]

88 tp = Ф -1 функция, обратная нормальной функции распределения [25].
Таким образом, можно заключить, что при использовании метода стохастического кодирования возрастает дисперсия оценок измеряемых моментов, однако к положительным свойствам можно отнести сокращение избыточности описания исходного процесса X(t)B а = k / S раз [25], ' * где к разрядность представления X(t) двоичным кодом; S порядок определяемой моментной функции процесса z(t).
Например, если к = 12 16, S = 2, то а = 6 8.
Кроме того, при математической обработке процессов z(t), полученных в результате применения метода стохастического кодирования, операции сложения и умножения сводятся к простейшим операциям конъюнкции и счету импульсов.
Это позволяет строить относительно простые вероятностные процессоры для статистической обработки данных с целью выделения эффективных признаков.
3.2.
Оптимизация разделяющих поверхностей и принятие решений В [19, 90] уже обсуждался вопрос выбора критерия оптимизации, и был предложен следующий подход к рассмотрению задачи построения разделяющей поверхности.
Как уже отмечалось в п.1.3 в теории распознавания сигналов в отношении процессов (сигналов), принадлежащих одному классу, высказывается гипотеза компактности, т.е.
включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей.
Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков.
Поскольку распознаваемый класс сигналов является случайным процессом, N -мерный вектор его признаков у заключен в некоторой области G, причем эта область может быть бесконечной.
Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля.
Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала._
t , Разделяющая поверхность в нашем случае задается выражением Q(y) = 0; (3.50) она охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна.
Необходимо найти эту поверхность.
При этом, если собственную область G пространства признаков определенного класса (например класса А) задавать исходя из условия максимума


[стр.,89]

вероятности правильной классификации Р(А) = [со(уA)dx, (3.51) G при фиксированном объеме выделенного пространства V *= jdy, (3.52) G то максимизируемый функционал I принимает вид [77] I = Jco(yA)dy-X Jdy, (3.53) G G где X множитель Лагранжа.
В [77] показано, что искомая граница Г выделенной области G должна удовлетворять условию ш(уА) = X, у е Г , (3.54) а поверхность (3.50) будет представлять собой контур равновероятной плотности.
Если эта поверхность определена, процедура распознавания сводится к вычислению функции плотности вероятности со(уА1 при наблюдаемом значении у и сравнению ее с порогом X.
Решающее правило в этом случае будет иметь вид у е А, если <х>(уА) > X; у gА, если со(уА) < X.
(3.55) Умение достаточно точно и сравнительно просто восстановить функцию плотности вероятности или выделить контур, на котором она постоянна, в значительной степени определяет практическую возможность решения задачи распо-J знавания.
Если контур равновероятной плотности является разделяющей поверхностью, то сформировать его можно используя алгоритмы обучения, описанные в [95].
Использование алгоритмов обучения предполагает, что контур равновероятной плотности или разделяющая поверхность аппроксимируются рядомк .
П 2 > а (у)= °(3.56) j=l Во многих практических ситуациях более предпочтительно формировать разделяющую поверхность как огибающую элементарных фигур гиперсфер, гиперкубов [41].
Уравнение каждой такой поверхности Е (у, (3.57) ИЛИ (3.58) Центр фигуры естественно совмещается с математическим ожиданием m распределения вектора признаков у.
При этом для сферически симметричного распределения уравнение (3.57) является также контуром равновероятной плотности и достаточно компактно выделяет собственную область каждого класса.
В I

[Back]