Проверяемый текст
Цымбал, Владимир Георгиевич; Разработка и исследование методов формирования признаковых пространств в медицинских диагностических системах (Диссертация 1999)
[стр. 81]

L= J Jp„(y)p(x)dydx (2.19) —00—00 где Pn(t) —плотность распределения некоторого опорного процесса t(t), некоррелированного с анализируемым процессом x(t).
Из (2.19) следует, что интервал распределения опорного процесса должен быть не меньше интервала распределения анализируемого процесса.
Можно видеть, что в частном случае, когда функция распределения опорного сигнала
r)(t) Fn(x)= х , то результат (2.18) определяет моменты распределения k-го порядка (к = 1,2,...).
Функции распределения опорного сигнала Fr(x) выбираются на этапе обучения из условия получения максимальной достоверности классификации.
В общем случае вычисление значения функционала
(2.18) предполагает знание плотности распределения процесса x(t) и функции распределения (или 1 плотности вероятности) опорного процесса rt(t).
На первый взгляд такая форма преобразования может показаться абсурдной, так как для распознавания сигнала
x(t) достаточно знания плотности распределения р(х), однако следует иметь в виду, что на практике эта плотность, как правило, не известна, а имеется в распоряжении кластеризованная выборка из реализации процесса x(t), по которой можно сформировать оценку £(х) его плотности распределения, но и этого делать нет необходимости в силу специфики практической реализации оценок функционала (2.18).
Такой подход к определению системы эффективных признаков позволяет« * отобразить многомерное пространство исходных признаков в одномерное пространство функционалов, при этом убирается излишняя детализация описания процесса, присущая данному конкретному представителя распознаваемого класса процессов.
"Обобщенная" информация о распознаваемых классах сигналов содержится в преобразованной системе признаков-функционалов в той мере, в какой она существенна для разделения сигналов.

81
[стр. 71]

символ Pf •] означает вероятность события, указанного в квадратных скобках.
В этом случае результат преобразования может быть записан 00 L = JF4(х)а)(х)dx (2.6) —оо или L = ] Jooп(у)©(х)dydx, (2.7) —00—00 где <о ft)плотность распределения некоторого опорного процесса r(t), не коррелированного с анализируемым процессом х(t).
Из (2.7) следует, что интервал распределения опорного процесса должен быть не меньше интервала распределения анализируемого процесса.
Можно видеть, что в частном случае, когда функция распределения опорного сигнала
rft) ¥ц(х) = хк, то результат (2.6) определяет моменты распределения к-го порядка (к = 1,2, 3,...).
Функции распределения опорного сигнала F (х) выбираются на этапе обучения из условия получения максимальной достоверности классификации.
В общем случае вычисление значения функционала
(2.6) предполагает знание плотности распределения процесса х(t) и функции распределения (или плотности вероятности) опорного процесса цft).
На первый взгляд такая форма преобразования может показаться абсурдной, так как для распознавания сигнала
xft) достаточно знания плотности распределения ш(х), однако следует иметь в виду, что на практике эта плотность, как правило, не известна, а имеется в распоряжении кластеризованная выборка из реализации процесса xft), по которой можно сформировать оценку ю(х) его плотности распределения, но и этого делать нет необходимости в силу специфики практической реализации оценок функционала (2.6).
Такой подход к определению системы эффективных признаков позволяет отобразить многомерное пространство исходных признаков в одномерное пространство функционалов, при этом убирается излишняя детализация описания процесса, присущая данному конкретному представителя распознаваемого класса процессов.
"Обобщенная" информация о распознаваемых классах сигналов содержится в преобразованной системе признаков-функционалов в той мере, в какой она существенна для разделения сигналов.N
Хотя исходная система признаков в общем случае нелинейно связана с редуцированной системой признаков-функционалов, однако построение решающего правила (разделяющей поверхности) в случае системы независимых признаков возможно в классе линейных классификаторов, где, как известно [54, 87], наилучшим является байесовский классификатор, минимизирующий ошибки классификации.
71

[Back]