27 В п. 1.3 были выделены основные этапы процесса статистического распознавания. Рассмотрим подробнее эти этапы, а также формирование задачи оптимизации на основе ее общей постановки [148,149,150]. 1.4.2. Формирование признакового пространства. Первоначальный набор признаков Y,,Y2,...,Y формируется из числа доступных измерению характеристик распознаваемых объектов таким образом, чтобы полно и всесторонне отразить все наиболее существенные для распознавания свойства. Однако увеличение размерности признакового пространства повышает вычислительную сложность распознающей процедуры и общие затраты на измерение характеристик объектов, т. е. на получение необходимого числа наблюдений. Поскольку время обучения и в особенности принятия решения, как правило, ограничено, повышение размерности признакового пространства может оказаться единственным способом увеличения достоверности до требуемого уровня. Следовательно, требования к размерности признакового пространства с точки зрения повышения достоверности распознавания и минимизации затрат на получение наблюдений (измерений) являются, как уже подчеркивалось, противоречивыми. Отсюда вытекает большая важность проблемы формирования признакового пространства оптимальных размеров. Традиционные способы формирования новых признаков Х ,,Х 2,...,Х из первоначального набора признаков Yj,Y2,...,Y (p < q ) в условиях полного априорного знания основаны на максимизации некоторой функции J(Y,, Y2, ..., Y ), называемой критерием и обычно понимаемой как некоторое "расстояние" между классами в признаковом пространстве с координатами Y,,Y2,...,Y . В других случаях критерий J(Y,,Y2,...,Y ) выражает "диаметр" или "объем" области Qm (см. рис. 1.3), занимаемой классом в признаковом пространстве, и новые признаки X,, Х2, ..., Хр формируются путем минимизации критерия [113, 145, 152]. Оба варианта критериев по своей сути равнозначны. Конкретно в качестве критерия J(Y15Y2, ..., Yq) выбирают среднеквадратическую ошибку аппроксимации признаков Y1}Y2,...,Y с помощью новых признаков Х ,,Х 2,...,Х , среднее межклассовое расстояние, внутриклассовый разброс наблюдений, энтропию одного класса относительно другого и т.д. Традиционные критерии, основанные на геометрических понятиях расстояния между классами, исходят из того, что значение указанного расстояния пропорционально достоверности расстояния. Считают, что чем больше расстояние между классами в признаковом пространстве, тем больше различие между классами, тем легче его обнаружить и, следовательно, тем выше будет достоверность различения классов. Максимизация расстояния между классами повышает "разделяющую силу признаков" [122], которая, как ожидается, обеспечит требуемую достоверность различения, особенно если само правило различения основано на том же самом критерии, что и выбор признаков. 1.4.3. Рассмотрим процедуру обучения диагностической системы. Источником информации о распознаваемых образах является совокупность результатов независимых наблюдений (выборочных значений), составляющих |
35 трольных выборок и размерность признакового пространства [82]. Для определения времени обучения и принятия решения в системах статистического распознавания могут быть использованы полученные в [82] выражения вероятностей ошибок распознавания через объемы обучающих и контрольных выборок и межклассовое расстояние d2 (расстояние Махаланобиса), а также могут быть привлечены известные из теории статистических решений [54, 55] оценки вероятностей ошибок классификации через объемы контрольных выборок. Однако далеко не всегда удается воспользоваться перечисленными возможностями, так как их применение во всех случаях ограничено теми или иными условиями, связанными с функционированием разрабатываемых систем в реальных обстоятельствах. Эти ограничения будут рассмотрены позднее. Тем не менее представляется целесообразным рассмотреть основные результаты, полученные при решении задачи оптимизации (1.7) с применением статистического метода. В п. 1.5 были выделены основные этапы процесса статистического распознавания. Рассмотрим подробнее эти этапы, а также формирование задачи оптимизации на основе ее общей постановки (1.7). 1.6.2. Формирование признакового пространства. Первоначальный набо признаков Yj, Y2,..., Yq формируется из числа доступных измерению характеристик распознаваемых объектов таким образом, чтобы полно и всесторонне отразить все наиболее существенные для распознавания свойства. Однако увеличение размерности признакового пространства повышает вычислительную сложность распознающей процедуры и общие затраты на измерение характеристик объектов, т. е. на получение необходимого числа наблюдений. Поскольку время обучения и в особенности принятия решения, как правило, ограничено, повышение размерности признакового пространства может оказаться единственным способом увеличения достоверности до требуемого уровня. Следовательно, требования к размерности признакового пространства с точки зрения повышения достоверности распознавания и минимизации затрат на получение наблюдений (измерений) являются, как уже подчеркивалось, противоречивыми. Отсюда вытекает большая важность проблемы формирования признакового пространства оптимальных размеров. Традиционные способы формирования новых признаков Х ,,Х 2,...,Х из первоначального набора признаков Yj,Y2,..., Y (р < q) в условиях полного априорного знания основаны на максимизации некоторой функции J(Yt, Y2,..., Y ), называемой критерием и обычно понимаемой как некоторое "расстояние" между классами в признаковом пространстве с координатами Yj,Y2,...,Y . В других случаях критерий J(Y,, У2, Yq) выражает "диаметр" или "объем" области Qm (см. рис. 1.7), занимаемой классом в признаковом пространстве, и новые признаки X j,X 2,...,X p формируются путем минимизации критерия [65, 80, 87]. Оба варианта критериев по своей сути равнозначны. Конкретно в качестве критерия J(Y,, Y2,..., Yq) выбирают среднеквадратическую ошибку аппроксимации при 36 знаков Y,,Y2,...,Y с пом ощ ью н о вы х признаков X,,Х2, Х р, среднее межклассовое расстояние, внутриклассовый разброс наблюдений, энтропию одного класса относительно другого и т.д. Традиционные критерии, основанные на геометрических понятиях расстояния между классами, исходят из того, что значение указанного расстояния пропорционально достоверности расстояния. Считают, что чем больше расстояние между классами в признаковом пространстве, тем больше различие между классами, тем легче его обнаружить и, следовательно, тем выше будет достоверность различения классов. Максимизация расстояния между классами повышает "разделяющую силу признаков" [74], которая, как ожидается, обеспечит требуемую достоверность различения, особенно если само правило различения основано на том же самом критерии, что и выбор признаков. 1.6.3. Рассмотрим процедуру обучения диагностической системы. Источн ком информации о распознаваемых образах является совокупность результатов независимых наблюдений (выборочных значений), составляющих обучающую знавания (одномерной или многомерной) xs может быть либо одномерной, либо р-мерной случайной величиной. Основной целью обучения являются преодоление априорной неопределенности о распознаваемых классах путем использования информации о них, содержащейся в обучающих выборках, и построение эталонных описаний классов, вид которых определяется способом их использования в решающих правилах [85]. Решающее значение для выбора метода распознавания имеет вид априорной неопределенности, для преодоления которой используется. Если в результате предварительного анализа наблюдаемой совокупности выборочных значений (или на основе имеющейся априорной информации) оказывается возможным хотя бы с некоторым приближением установить вид закона их распределения, то априорная неопределенность относится лишь к параметрам этого распределения, так что целью обучения в этом случае становится получение оценок этих параметров. Подобная априорная неопределенность носит название параметрической [54], а методы распознавания, применяемые в этих условиях, именуются параметрическими. При этом многими авторами, в том числе и в [85,82], отмечается, что хотя с формальной точки зрения закон распределения выборочных значений может быть любым, на практике в параметрическом распознавании почти всегда используется нормальный закон. Дело в том, что при распознавании многомерных совокупностей каждая компонента выборочных значений (т.е. наблюдаемые значения каждого признака) может иметь свой отличный от других компонент закон распределения. Но тогда многомерное совместное распределение совокупности выборочных значений должно описываться некоторым многомерным законом, включающим в себя компоненты с различными законами распределения. Однако (обучающие) si)j = (x,,x2,...,x mkj и контрольную (экзаменационную) ,хп) выборки, причем в зависимости от характера задачи распо |