Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 98]

97 моментов, однако к положительным свойствам можно отнести сокращение избыточности описания исходного процесса X(t) в a = k/S раз [41], где к разрядность представления X(t) двоичным кодом; S порядок определяемой моментной функции процесса z(t).
Например, если
k=12-16, S=2, то a = 6 8.
Кроме того, при математической обработке процессов z(t), полученных в результате применения метода стохастического кодирования, операции сложения и умножения сводятся к простейшим операциям конъюнкции и счету импульсов.
Это позволяет строить относительно простые вероятностные процессоры для статистической обработки данных с целью выделения эффективных признаков.
3.2.3.

Исследуем статистические свойства оценок функционалов.
Известно [94, 95, 150, 152], что знание многомерной плотности распределения признаков позволяет строить оптимальное решающее правило.
Для решения задачи определения многомерной плотности распределения признаков сначала определим одномерные плотности вероятности признаков оцениваемых по формулам (3.22) и (3.46).
Рассмотрим событие z(t)=l.
Вероятность этого события в соответствии с (3.18) равна ъ P[z(t) = 1]= M[sgnz] = jF^x) •gox(x)dx = p .
а Тогда оценка (3.22), при независимости входящих в нее членов, будет иметь биномиальное распределение с параметрами N и р.
При больших N биномиальное распределение хорошо аппроксимируется нормальным с параметрами (n -p,-\/N-p-(l-p)).
Вычислим ошибку аппроксимации биномиального распределения нормальным.
Для оценки точности аппроксимации воспользуемся выражением для "энергии” ошибки £ (Bi(i,N,р) dnonll(i,р •N ,-jN -p-(l-p))2 8а = —--------------------------------------------------, (3.58) IB i(i,N ,p)2 i=0 где Bi функция плотности вероятности для биномиального распределения; dnorm функция плотности вероятности для нормального распределения.
Расчеты по формуле (3.58) для вероятностей р е [0.05,0.5] показывают, что относительная ошибка аппроксимации не превышает 1% при N=100.
Таким образом, при независимости отсчетов исследуемого процесса и при размере выборки N>100 (3.59)
[стр. 88]

88 tp = Ф -1 функция, обратная нормальной функции распределения [25].
Таким образом, можно заключить, что при использовании метода стохастического кодирования возрастает дисперсия оценок измеряемых моментов, однако к положительным свойствам можно отнести сокращение избыточности описания исходного процесса X(t)B а = k / S раз [25], ' * где к разрядность представления X(t) двоичным кодом; S порядок определяемой моментной функции процесса z(t).
Например, если
к = 12 16, S = 2, то а = 6 8.
Кроме того, при математической обработке процессов z(t), полученных в результате применения метода стохастического кодирования, операции сложения и умножения сводятся к простейшим операциям конъюнкции и счету импульсов.
Это позволяет строить относительно простые вероятностные процессоры для статистической обработки данных с целью выделения эффективных признаков.
3.2.

Оптимизация разделяющих поверхностей и принятие решений В [19, 90] уже обсуждался вопрос выбора критерия оптимизации, и был предложен следующий подход к рассмотрению задачи построения разделяющей поверхности.
Как уже отмечалось в п.1.3 в теории распознавания сигналов в отношении процессов (сигналов), принадлежащих одному классу, высказывается гипотеза компактности, т.е.
включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей.
Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков.
Поскольку распознаваемый класс сигналов является случайным процессом, N -мерный вектор его признаков у заключен в некоторой области G, причем эта область может быть бесконечной.
Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля.
Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала._ t , Разделяющая поверхность в нашем случае задается выражением Q(y) = 0; (3.50) она охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна.
Необходимо найти эту поверхность.
При этом, если собственную область G пространства признаков определенного класса (например класса А) задавать исходя из условия максимума

[Back]