100 dj(x) = x ' m i ш/ш,, i=l,2,..,M; (3.63) это выражение для решающей функции классификатора, построенного на принципе минимума расстояния для случая единственного эталона класса, причем в роли этого эталона выступает вектор средних значений образов, входящих в соответствующий класс. Для этого решающего правила для каждого класса необходимо хранить лишь вектор средних значений образов и скаляр, равный квадрату нормы вектора математического ожидания. Второе направление в построении решающих правил базируется на тяготении образов с нормальным распределением к образованию кластеров. Также в п.1.1 отмечалось, что в теории распознавания сигналов в отношении процессов (сигналов), принадлежащих одному классу, высказывается гипотеза компактности [42, 142], т.е. включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей. Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков. Поскольку распознаваемый класс сигналов является случайным процессом, N -мерный вектор его признаков у заключен в некоторой области G , причем эта область может быть бесконечной. Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля. Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала. Разделяющая поверхность в нашем случае задается выражением Q(y) = 0; (3.64) она охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна. Необходимо найти эту поверхность. При этом, если собственную область G пространства признаков определенного класса (например класса А ) задавать исходя из условия максимума вероятности правильной классификации (3.65)Р(А) = f(o(yA)dx, G при фиксированном объеме выделенного пространства VA= J dy, (3.66) G то максимизируемый функционал I принимает вид [131] I = Jcd(yA)dy —A. Jdy, (3.67) G где X множитель Лагранжа. В [131] показано, что искомая граница Г выделенной области G должна удовлетворять условию со(уА) = Х, у еГ , (3.68) |
88 tp = Ф -1 функция, обратная нормальной функции распределения [25]. Таким образом, можно заключить, что при использовании метода стохастического кодирования возрастает дисперсия оценок измеряемых моментов, однако к положительным свойствам можно отнести сокращение избыточности описания исходного процесса X(t)B а = k / S раз [25], ' * где к разрядность представления X(t) двоичным кодом; S порядок определяемой моментной функции процесса z(t). Например, если к = 12 16, S = 2, то а = 6 8. Кроме того, при математической обработке процессов z(t), полученных в результате применения метода стохастического кодирования, операции сложения и умножения сводятся к простейшим операциям конъюнкции и счету импульсов. Это позволяет строить относительно простые вероятностные процессоры для статистической обработки данных с целью выделения эффективных признаков. 3.2. Оптимизация разделяющих поверхностей и принятие решений В [19, 90] уже обсуждался вопрос выбора критерия оптимизации, и был предложен следующий подход к рассмотрению задачи построения разделяющей поверхности. Как уже отмечалось в п.1.3 в теории распознавания сигналов в отношении процессов (сигналов), принадлежащих одному классу, высказывается гипотеза компактности, т.е. включение всех объектов каждого класса в одно подмножество, состоящее из конечного числа связанных областей. Другими словами, гипотеза компактности предполагает адекватность понятий "сходства" процессов одного класса и их геометрической "близости", проявляющейся в объединении их в одно связанное подмножество в пространстве признаков. Поскольку распознаваемый класс сигналов является случайным процессом, N -мерный вектор его признаков у заключен в некоторой области G, причем эта область может быть бесконечной. Так для нормального процесса вероятность попадания его значений в любую произвольную область отлична от нуля. Однако практически удается выделить такую ограниченную область признакового пространства, вероятность попадания в которую признаков данного класса весьма высока, в то же время для других ничтожно мала._ t , Разделяющая поверхность в нашем случае задается выражением Q(y) = 0; (3.50) она охватывает замкнутую область фиксированного объема, вероятность попадания в которую признаков данного класса максимальна. Необходимо найти эту поверхность. При этом, если собственную область G пространства признаков определенного класса (например класса А) задавать исходя из условия максимума вероятности правильной классификации Р(А) = [со(уA)dx, (3.51) G при фиксированном объеме выделенного пространства V *= jdy, (3.52) G то максимизируемый функционал I принимает вид [77] I = Jco(yA)dy-X Jdy, (3.53) G G где X множитель Лагранжа. В [77] показано, что искомая граница Г выделенной области G должна удовлетворять условию ш(уА) = X, у е Г , (3.54) а поверхность (3.50) будет представлять собой контур равновероятной плотности. Если эта поверхность определена, процедура распознавания сводится к вычислению функции плотности вероятности со(уА1 при наблюдаемом значении у и сравнению ее с порогом X. Решающее правило в этом случае будет иметь вид у е А, если <х>(уА) > X; у gА, если со(уА) < X. (3.55) Умение достаточно точно и сравнительно просто восстановить функцию плотности вероятности или выделить контур, на котором она постоянна, в значительной степени определяет практическую возможность решения задачи распо-J знавания. Если контур равновероятной плотности является разделяющей поверхностью, то сформировать его можно используя алгоритмы обучения, описанные в [95]. Использование алгоритмов обучения предполагает, что контур равновероятной плотности или разделяющая поверхность аппроксимируются рядомк . П 2 > а (у)= °(3.56) j=l Во многих практических ситуациях более предпочтительно формировать разделяющую поверхность как огибающую элементарных фигур гиперсфер, гиперкубов [41]. Уравнение каждой такой поверхности Е (у, (3.57) ИЛИ (3.58) Центр фигуры естественно совмещается с математическим ожиданием m распределения вектора признаков у. При этом для сферически симметричного распределения уравнение (3.57) является также контуром равновероятной плотности и достаточно компактно выделяет собственную область каждого класса. В I |