Проверяемый текст
Терещенко Вадим Владиславович. Разработка и реализация новых принципов автоматического распознавания рукописных документов в компьютерных системах обработки данных (Диссертация 2000)
[стр. 43]

Далее вся сеть целиком может быть подвергнута глобальной оптимизации методом градиентного спуска.
Аналогичный подход описан в [47].
Классификация по ближайшему соседу Классификация по ближайшему соседу
[48], несомненно, является одним из важнейших базовых методов построения классификатора и имеет многолетнюю историю успешного применения ко многим задачам классификации.
Для начала рассмотрим базовый вариант классификатора по ближайшему соседу.
Входной вектор признаков сравнивается с набором
векторов эталонных изображений, про которые известно, к какому классу они принадлежат.
Выходной класс определяется по классу ближайшего (по евклидову расстоянию) эталонного вектора: «*
ю<с (у) = с1а58{г,} о пйпЦу Г(2.
(2.15) В базовой схеме этап обучения фактически отсутствует.
Все вектора из обучающей выборки становятся эталонными.
Правило выбора ближайшего соседа в некотором смысле является попыткой непосредственно оценить апостериорную вероятность
Р(ук V), так как относительные вероятности появления эталонных векторов в окрестности данного вектора определяются именно апостериорной вероятностью.
Такой подход тесно связан с другим подходом, при котором вероятности оцениваются путем подсчета числа событий в определенных фиксированных интервалах, т.
е.
с помощью гистограмм.
Принципиальный недостаток использования гистограмм заключается в том, что конфигурацию системы (число, положение и размер ячеек) необходимо определять заранее.
Правило выбора ближайшего соседа элегантно избегает этих проблем, выбирая размер ячейки (окрестности) динамически, опираясь на входной вектор.
[стр. 25]

Классификация по ближайшему соседу Классификация по ближайшему соседу [47] несомненно является одним из важнейших базовых методов построения классификатора и имеет многолетнюю историю успешного применения ко многим задачам классификации.
Для начала рассмотрим базовый вариант классификатора по ближайшему соседу.
Входной вектор признаков сравнивается с набором
векгоров эталонных изображений, про которые известно, к какому классу они принадлежат.
Выходной класс определяется по классу ближайшего (по евклидову расстоянию) эталонного вектора: *
л«с (у) = с1а^} <=> т1п1у " Г/1 (2.15) В базовой схеме этап обучения фактически отсутствует все вектора из обучающей выборки становятся эталонными.
Правило выбора ближайшего соседа в некотором смысле является попыткой непосредственно оценить а постер иорную вероятность
Р(^ку), так как относительные вероятности появления эталонных векторов в окрестности данного определяются именно апостериорной вероятностью.
Это правило также тесно связано с подходом, при котором вероятности оцениваются путем подсчета числа событий в определенных фиксированных интервалах, т.
е.
с помощью гистограмм.
Принципиальный недостаток использования гистограмм заключается в том, что конфигурацию системы (число, положение и размер ячеек) необходимо определять заранее.
Правило выбора ближайшего соседа элегантно избегает этих проблем, выбирая размер ячейки (окрестности) динамически, опираясь на входной вектор.

Правило с выбором одного ближайшего соседа естественным образом обобщается на случай N ближайших соседей.
Итоговое решение принимается с помощью какойнибудь схемы голосования.
Также имеется возможность сформулировать правила для отказа от классификации в ситуациях, когда четкое предпочтение отдать невозможно.
Доказано [48], что классификация по ближайшему соседу при наличии бесконечного числа обучающих векгоров дает не более чем удвоенную ошибку по сравнению с оптимальным Байесовским классификатором: Р < э.
ргсггог,МНС~^гетг,Вау*х (2.16) Классификатор по ближайшему соседу1 часто используется для быстрой оценки сложности задачи, так как его достаточно просто реализовать и он позволяет оценить 25

[Back]