двойного косинусного преобразования матрицы изображения (строк и столбцов). Критерий (2.11) позволяет оставить без изменения только те участки, которым соответствуют наибольшие значения плотности распределения длин сегментов, т.е. вносящие основной вклад в значение энтропии В' тоже время из (2.11) видно, что если информация об объекте (системе) содержится не только в значениях плотности распределения параметров системы, а в их порядке в распределении, т.е. в его форме, то мера (2.11) не может быть использована для количественной оценки степени различий состояний такой системы. Л потребность в таком показателе различий имеется при решении большого числа практических задач, где информация о структуре анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений, например, в задачах распознавания ситуаций. В [38] впервые показано, что для данных, представляемых в виде двумерного массива матрицы, включая ее частный случай — вектор, может быть построен обобщенный показатель, который удерживает информацию о структуре значений этих данных. Возможность построения такого показателя обусловлена энтропийными свойствами матрицы связи 8 вида 8 = XX"1 (2.12) где X матрица исходных данных, называемая матрицей «объект-признак» [6], в которой строки («объекты») содержат «признаки» или характеристики 7* Т этих «объектов» (в нашем случае это матрица (X) ={%} в (2.1)); X' 7* I транспонированная матрица обратных значений данных X ((Х)‘ ={ху‘ }). Методы построения обобщенных характеристик, базирующиеся на использовании принципа максимума неопределенности энтропии, называемого еще принципом Гиббса Джейнса (минимума субъективизма) [76], используют для этой цели его центральную идею, согласно которой наиболее характерными распределениями вероятностей состояний среды являются такие, которые максимизируют выбранную меру неопределенности 66 |
задачи выбора из множества характеризующихся определенными свойствами распределений (удовлетворяющих заданной системе ограничений, накладываемых на случайную величину), такого, которое максимизирует выбранную меру неопределенности — энтропию. Согласно этому наиболее характерными распределениями вероятностей состояний неопределённой среды являются такие, которые максимизируют энтропию при заданной информации о «поведении» среды [76]. Такие распределения, обладающие максимальной энтропией называются экстремальными [49,76]. В [76] показано, что энтропия Шеннона Н(р )=]Гр,1п/?, (2.11) где вектор Р =(/>,,Р2>->Рп ), X Р, = 1, р, >0 1,л характеризует 1-1 вероятность распределения случайной величины х, принимающей дискретные значения .г,, а г 2 л г п , является единственной однозначной мерой неопределенности вероятностного распределения Р(х,). В широком классе практических задач обобщенный показатель состояния системы (объекта), построенный с помощью энтропии (2.11) на векторе ее параметров, который может быть проинтерпретирован как распределение вероятностей, дает устойчивые результаты2. В тоже время из (2.11) видно, что если информация об объекте (системе) содержится не только в значениях плотности распределения параметров системы, а в их порядке в распределении, т.е. в его форме, то мера (2.11) нс может быть использована для количественной оценки степени различий состояний такой системы. А потребность в таком показателе различий имеется при решении большого числа практических задач, где информация о структуре 2 Например, энтропия (2.11) используется в методе «сжатия» изображений (формате) «.)𧻠как обобщенный показатель распределения уровней яркости пикселей изображения. Такое распределение строится путем двойного косинусного преобразования матрицы изображения (строк и столбцов). Критерий (2.11) позволяет оставить без изменения только тс участки, которым соответствуют наибольшие значения плотности распределения длин сегментов, т.е. вносящие основной вклад в значение энтропии. 62 анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений, например, в задачах распознавания ситуаций. В [38] впервые показано, что для данных, представляемых в виде двумерного массива матрицы, включая ее частный случай вектор, может быть построен обобщенный показатель, который удерживает информацию о структуре значений этих данных. Возможность построения такого показателя обусловлена энтропийными свойствами матрицы связи 8 вида 8 = ХХ"Г (2.12) где X матрица исходных данных, называемая матрицей «объект-признак» [6], в которой строки («объекты») содержат «признаки» или характеристики этих «объектов» (в нашем случае это матрица (Х)г ={*,,} в (2.1)); Х“г транспонированная матрица обратных значений данных X ((Х)‘г ={*";'}). Методы построения обобщенных характеристик, базирующиеся на использовании принципа максимума неопределенности энтропии, называемого еще принципом Гиббса Джейнса (минимума субъективизма) [76], используют для этой цели его центральную идею, согласно которой наиболее характерными распределениями вероятностей состояний среды являются такие, которые максимизируют выбранную меру неопределенности при заданной информации о «поведении» среды. При вероятностном подходе к решению практических задач информация о «поведении» среды задается в виде ограничений на закон распределения вероятностей. Необходимо отметить, что в задачах, в которых состояния систем характеризуются значительно отличающимися распределениями вероятностей, в качестве меры неопределенности помимо (2.11) часто используется информационная энтропия: Я(р) = 1 ± р , г (2.13) 1-1 где/;, вероятность /-го состояния среды (системы); п количество состояний. Значение р* вектора р в (2.11 и 2.13) в общем случае находится из условия: 63 |