Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 113]

Анализ полученных результатов приводит к следующим выводам.
1) Минимум вероятности ошибки классификации достигается при росте объема обучающей выборки; 2) Применение алгоритма классификации с коррелированными опорными процессами целесообразно только в случае критически малых объемов обучающих и контрольных выборок.
При увеличении времени обучения и распознавания предпочтительно использование алгоритма классификации с некоррелированными опорными процессами, требующего меньших временных затрат на
формирование отсчетов признаков при той же вероятности ошибки классификации; 3) Коэффициент сжатия информации о процессе для графиков на рис.

4.2, 4.3 равен к = 1000, количеству точек, по которым строится оценка признака.
4.3.
Сравнительный анализ показателей качества предложенного и известного алгоритма непараметрической классификации Целью данного подраздела является объективное сравнение характеристик предлагаемых алгоритмов и известными алгоритмами непараметрической классификации.
Оставляя за рамками данной работы анализ известных алгоритмов непараметрического распознавания, остановимся на методах непараметрической
оценки плотности вероятности, то есть методах, позволяющих аппроксимировать неизвестную функцию плотности вероятности с целью ее дальнейшего использования для построения оптимальных решающих правил [96].
В литературе [87] достаточно подробно описаны методы оценивания плотности вероятности и их использования для построения оптимальных решающих правил.
Среди них: методы оценки Парзена, метод к ближайших соседей, метод гистограмм, методы разложения по базисным функциям.
Часто предпочтение отдают методам ядерных оценок Парзена за их высокую точность восстановления функций плотности, однако вычисление ядра для каждого объекта требует значительного времени.

113
[стр. 12]

и объемов обучающих выборок, необходимых для классификации процессов с заданной достоверностью.
Установлено, что применение алгоритма классификации с коррелированными опорными процессами целесообразно только в случае критически малых объемов обучающих и контрольных выборок.
При увеличении времени обучения и распознавания предпочтительно использование алгоритма классификации с некоррелированными опорными процессами, требующего меньших временных затрат на
формирования отсчетов признаков при той же вероятности ошибки классификации.
Определено понятие статистической погрешности цифрового моделирования работы непараметрических классификаторов при решении задачи классификации случайных процессов.
Рассчитаны числовые значения статистических погрешностей моделирования работы классификаторов.
Определены оценки вычислительной сложности использованных алгоритмов моделирования работы непараметрических классификаторов.
Установлено, что при классификации показатели сложности реализации этих алгоритмов на микропроцессорных системах имеют меньшее значение, по сравнению с непараметрическими алгоритмами распознавания на основе оценивания плотностей вероятности по методу к ближайших соседей.
В пятом разделе представлены результаты экспериментального определения характеристик работы непараметрических классификаторов.
Определены возможности компьютерной обработки сигналов с использованием современных пакетов программ обработки и математического моделирования.
Разработана структурная схема экспериментальной установки, включающая физический генератор случайных процессов с заданными статистическими характеристиками, АЦП, персональный компьютер типа IBM/PC.
Экспериментально определены зависимости суммарной вероятности ошибки при классификации четырех классов случайных процессов от времени обучения.
Определены также вероятности ошибки при классификации энцефалограмм, принадлежащих пяти различным диагностическим группам пациентов.
Установлено, что алгоритм классификации с формированием собственных областей распознаваемых классов эффективно работает при объемах обучающей выборки признаков, начиная от 10...20, при однократной процедуре предъявления контрольной выборки.
Алгоритм целесообразно применять только при больших количествах распознаваемых классов, то есть в случае, когда построение разделяющих поверхностей на основе функций правдоподобия приводит к значительным вычислительным затратам.
Экспериментально подтверждено, что при значительных ограничениях на объемы обучающих выборок, НКСП с коррелированными опорными процессами более эффективен, по сравнению с НКСП на основе некоррелированных опорных сигналов.
'Результаты экспериментов показывают, что разработанные алгоритмы могут иметь область применения, выходящую за рамки исследования медико12

[стр.,122]

I Анализ полученных результатов приводит к следующим выводам.
1) Минимум вероятности ошибки классификации достигается при росте объема обучающей выборки; 2) Применение алгоритма классификации с коррелированными опорными процессами целесообразно только в случае критически малых объемов обучающих и контрольных выборок.
При увеличении времени обучения и распознавания предпочтительно использование алгоритма классификации с некоррелированными опорными процессами, требующего меньших временных затрат на формирование отсчетов признаков при той же вероятности ошибки классификации; 3) Коэффициент сжатия информации о процессе для графиков на рис.

4.4, 4.5 равен к = 1000, количеству точек, по которым строится оценка признака.
122 .
4.3.
Оценка вычислительной сложности программы моделирования Оценку вычислительной сложности программы моделирования работы НКСП произведем в соответствии с методикой, предложенной в [73].
Основной задачей будет являться определение порядка сложности алгоритма.
Порядок сложности мажоранта функции, определяющей количество арифметических и логических операций, при выполнении программы.
Для структурной схемы на рис.
4.1 расчет порядка сложности начинаем с внутренних циклов.
Порядок сложности внутреннего цикла по п составляет: 0(2 -N), .
(4.2) где o(f(x)) обозначает мажоранту функции f(x) (читается О большое); N длительность обучающей реализации.
Порядок сложности второго цикла (по L): o(m -(z2)-l где М длительность интервала, на котором вычисляются оценки признаков; L количество обучающих последовательностей; Z размерность вектора z.
Порядок сложности цикла по I: (4.3) o((2-N + M-Z2-Ь)-Г), (4.4) где I размер вектора признаков.
Порядок сложности цикла по J: o((2-N + M*Z2-l)■I2-j), (4.5) где J количество сигналов в системе.
Таким образом, порядок сложности программы моделирования в режиме обучения равен 2, =0((2-N + M-Z2-L)-I (4.6) Аналогично определяем порядок сложности программы моделирования в режиме классификации:

[стр.,123]

123 E2 = o ((2-NK + NK-Z2)-I2-JJ, (4.7) где NK длина контрольной выборки, предъявляемой для классификации.■ 1 Численные значения порядков сложности Еv и Е2 для исходных данных1 одного из экспериментов, представленного в прил.З будут иметь следующие значения: 1= 2, J = 4, N = 10% М =103, L = 10, NK = 10J, Z = 2, Ej =0,96-10°, S, = 0,096-106, E = 1,056-106.
4.4.
Сравнительный анализ показателей качества и сложности НКСП и а горитма непараметрической классификации по методу к ближайших соседей Целью данного подраздела является объективное сравнение характеристик предлагаемых алгоритмов и известными алгоритмами непараметрической классификации.
Оставляя за рамками данной работы анализ известных алгоритмов непараметрического распознавания, остановимся на методах непараметрическойI
S оценки плотности вероятности, то есть методах, позволяющих аппроксимировать неизвестную функцию плотности вероятности с целью ее дальнейшего использования для построения оптимальных решающих правил [96].
В литературе [87] достаточно подробно описаны методы оценивания плотности вероятности и их использования для построения оптимальных решающих правил.
Среди них: методы оценки Парзена, метод к ближайших соседей, метод гистограмм, методы разложения по базисным функциям.
Часто предпочтение отдают методам ядерных оценок Парзена за их высокую точность восстановления функций плотности, однако вычисление ядра для каждого объекта требует значительного времени.

Остановимся на модификации оценки Парзена, которая гораздо проще с вычислительной точки зрения.
Такая простота вычислений достигается за счет того, что мы ищем не оценки плотностей вероятности сами по себе, а их локальную оценку, то есть нас интересует классификация объектов, порождаемых двумя распределениями, и нам достаточно решить лишь вопрос о том, какая из двух плотностей вероятности больше в данной точке.
В методе Парзена каждый объект является центром, вокруг которого строится некоторое фиксированное ядро.
Похожую оценку можно получить иначе, следующим образом.
Используя выборку, состоящую из N объектов, находят расстояние г от точки X до k-го ближайшего к X объекта (k-го ближайшего соседа).
Для измерения "близости" можно воспользоваться любой подходящей метрикой.
оценки плотности вероятности в точке X можно принять eN(X)=-k_1 1 N A(k,N,X) (4 t A(k,N,X)объем множества всех точек, расстояния которых до X меньше расстояния используется евклидово представляет собой гипершар радиуса

[Back]