жесткими требованиями на время обучения и распознавания, либо ограниченными возможностями по затратам на получение наблюдений, либо и тем, и другим, и третьим. В то же время отмеченный выше сложный характер взаимосвязей между параметрами распознающей системы приводит к тому, что нередко удовлетворить всем налагаемым на них ограничениям можно при различных соотношениях между этими параметрами. В этих условиях появляется возможность выбора таких значений параметров р, т(, п и D, которые удовлетворяют всем налагаемым на них ограничениям и являются наилучшими (оптимальными) с точки зрения некоторого критерия, т. е. появляется возможность оптимизации распознающей системы. Как указывается в [82], сложная взаимосвязь между параметрами распознающей системы принципиально не позволяет одновременно минимизировать объемы выборок и число признаков и максимизировать достоверность. Поэтому в принципе возможны разные постановки задачи оптимизации: минимизация вероятностей ошибок распознавания при заданных ограничениях на объемы и размерность признакового пространства, минимизация затрат на проведение измерений и вычислений при заданных ограничениях на достоверность распознавания, минимизация времени обучения при заданных ограничениях на размерность признакового пространства, достоверность и время распознавания, минимизация времени распознавания при заданных ограничениях на размерность признакового пространства, время обучения и достоверность распознавания, минимизация размерности признакового пространства при заданных ограничениях на время обучения и распознавания и достоверность решений и т.п. Сформулируем общую постановку задачи оптимизации, заимствованную в [82, (1.3)], которая характеризуется вектором ее основных параметров V(m,,...,mK,n,р, D) eG, где G область допустимых значений параметров, и заключается в выборе из всех допустимых значений параметров таких, которые минимизировали бы некоторый критерий H(V). Как правило, область допустимых значений параметров задается системой неравенств hi(V) В итоге задача оптимизации 45 |
принимаемых решений, либо жесткими требованиями на время обучения и распознавания, либо ограниченными возможностями по затратам на получение наблюдений, либо и тем, и другим, и третьим. В то же время отмеченный выше сложный характер взаимосвязей между параметрами распознающей системы приводит к тому, что нередко удовлетворить всем налагаемым на них ограничениям можно при различных соотношениях между этими параметрами. В этих условиях появляется возможность выбора таких значений параметров р, , п и D, которые удовлетворяют всем налагаемым на них ограничениям и являются наилучшими (оптимальными) с точки зрения некоторого критерия, т. е. появляется возможность оптимизации распознающей системы. Как указывается в [82], сложная взаимосвязь между параметрами распознающей системы принципиально не позволяет одновременно минимизировать объемы выборок и число признаков и максимизировать достоверность. Поэтому в принципе возможны разные постановки задачи оптимизации: минимизация вероятностей ошибок распознавания при заданных ограничениях на объемы и размерность признакового пространства, минимизация затрат на проведение измерений и вычислений при заданных ограничениях на достоверность распознавания, минимизация времени обучения при заданных ограничениях на размерность признакового пространства, достоверность и время распознавания, минимизация времени распознавания при заданных ограничениях на размерность признакового пространства, время обучения и достоверность распознавания, минимизация размерности признакового пространства при заданных ограничениях на время обучения и распознавания и достоверность решений и т.п. Сформулируем общую постановку задачи оптимизации, заимствованную в [82, (1.3)], которая характеризуется вектором ее основных параметров V(mj,..., mK, n, р, D) е G , где G область допустимых значений параметров, и заключается в выборе из всех допустимых значений параметров таких, которые минимизировали бы некоторый критерий H(V). Как правило, область допустимых значений параметров задается системой неравенств (V) < yi5 i = 1, Q и равенств Gj(V) = 0j, j = 1, J , в качестве которых могут рассматриваться, например, неравенства D > D0, р < Р0 и равенства = М, j = j,,..., jr, n = N. В итоге задача оптимизации принимает следующий вид: Н(У) -> min; 33 Gi(V) = 0j, j=l,J. Постановка задачи оптимизации распознающей системы совпадает с классической постановкой задачи оптимизации систем [60, 6] и для ее решения применимы стандартные методы оптимизации. При этом в классической постановке задачи ограничения могут описывать как внешние условия, налагаемые на систему, так и функциональные связи между переменными, существующие внутри нее. В задаче оптимизации распознающей системы (1.7) ограничения на затра |