Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 149]

2.
Как видно из графиков зависимостей суммарных вероятностей ошибок
4 классификации от числа объектов обучения, при критически низком количестве объектов обучения (менее 8-10) алгоритм классификации по методу к ближайших соседей значительно проигрывает разработанному алгоритму в показателях вероятностей правильной классификации.
В ходе моделирования установлено, что в случае многоальтернативного распознавания при увеличении количества классов (выше 5-10) эффективность "эталонного” классификатора начинает резко падать, по сравнению с показателями эффективности
разработанного алгоритма непараметрического классификатора.
3.
Анализ вычислительной сложности алгоритмов показывает, что сложность алгоритма классификации по методу
^ближайших соседей более чем на порядок выше вычислительной сложности разработанных алгоритмов.
Особенно это важно при выполнении процедуры принятия решений (режим классификации), где порядок сложности разработанных алгоритмов ниже порядка сложности алгоритма классификации по методу
k-ближайших соседей приблизительно в 50 раз.
т 4.6 Оценка статистической погрешности результатов моделирования я * Показателем качества алгоритма непараметрического классификатора яв4 ляется суммарная вероятность ошибки классификации одного объекта исследо-* вания Рош.
Так как имеется случайная погрешность в определении Рош, под ошибкой моделирования будем понимать эту случайную погрешность.
Оценка ошибок статистического моделирования, в общем виде затруднительна, ввиду отсутствия общих аналитических выражений для ошибок моделирования систем случайных величин с произвольными законами распределения
[3, 4, 50].
Воспользуемся методикой оценивания вероятности ошибки для заданного классификатора, приведенной в [87].
Когда неизвестны априорные вероятности
классов P(ooi), i = l, 2, то можно случайно извлечь N объектов и 149
[стр. 128]

128 Зависимости оценок суммарных вероятностей ошибок классификации от числа объектов обучения по классам для классификатора по методу к ближайших соседей Рис.
4.10.
Таким образом, сравнивая основные показатели эффективности (представленные на рис.
4.4, 4.5 и рис.
4.10) и сложности (представленные в виде оценок порядков сложности алгоритмов) разработанных алгоритмов и алгоритма классификации по методу к ближайших соседей с использованием спектральных признаков, можно сделать следующие выводы.
1.
При увеличении количества объектов обучения (более 20-30) алгоритм методу к ближайших соседей имеет преимущества, заключающиеся в более высоких вероятностях правильной классификации по сравнению с разработанными вой стратегии принятия решений.
Особенно сильно эти преимущества проявляются при двухальтернативном распознавании.
2.
Как видно из графиков зависимостей суммарных вероятностей ошибок
классификации от числа объектов обучения, при критически низком количестве объектов обучения (менее 8-10) алгоритм классификации по методу к ближайших соседей значительно проигрывает разработанным алгоритмам в показателях вероятностей правильной классификации.
В ходе моделирования установлено, что в случае многоальтернативного распознавания при увеличении количества классов (выше 5-10) эффективность "эталонного" классификатора начинает резко падать, по сравнению с показателями эффективности
разработанных алгоритмов НКСП.
3.
Анализ вычислительной сложности алгоритмов показывает, что сложность алгоритма классификации по методу
к ближайших соседей более чем нач порядок выше вычислительной сложности разработанных алгоритмов.
Особенно это важно при выполнении процедуры принятия решений (режим классификации), где порядок сложности разработанных алгоритмов ниже порядка сложности алгоритма классификации по методу
к ближайших соседей приблизительно в 50 раз.
t

[стр.,129]

• 4.5.
Оценка статистической погрешности результатов моделирования
129 • i ' Показателем качества алгоритмов НКСП является суммарная вероятность ошибки классификации одного объекта исследования Рош.
Так как имеется случайная погрешность в определении Рош, под ошибкой моделирования будем понимать эту случайную погрешность.
Оценка ошибок статистического моделирования в общем виде затруднительна ввиду отсутствия общих аналитических выражений для ошибок моделирования систем случайных величин с произвольными законами распределения'
I [67].
Воспользуемся методикой оценивания вероятности ошибки для заданного классификатора, приведенной в [87].
Когда неизвестны априорные вероятности
i = 1,2, то можно случайно извлечь N объектов и проверить, даетклассов со ли данный классификатор правильные решения для этих объектов.
Такие объекты называют случайной выборкой.
Пусть т число объектов, неправильно классифицированных в результате этого эксперимента.
Величина т является дискретной случайной величиной.
Обозначим истинную вероятность ошибки через е.
Вследствие дискретности т при фиксированном е рассмотрим вероятность Ргт = т / e l, которая задается биномиальным распределением: Рг{т t / s s 4 ls ) N\ (4.19) Оценка максимального правдоподобия s величины е есть решение следующего уравнения правдоподобия: dlnPrfт = т/е дв т N -т Е=Е 8 1-8 0.
(4.20) 6=8 Следовательно, 8 т N (4.21) Другими словами, оценка максимального правдоподобия равна отношению числа неправильно классифицированных объектов к общему числу объектов.
Свойства биномиального распределения хорошо известны.
Характеристическая функция, математическое ожидание и дисперсия определяются следующим образом: (4.22)ф(е) 8exp(jo) + (l 8)Г > M(t) = N s , D(r) = Ne 8 (4.23) (4.24) Поэтому М(е) = M(t)/N е, D(e) = D(t)/N 8 8)/N .
(4.25) (4.26) Таким образом, оценка 8 является несмещенной.

[Back]