Проверяемый текст
Ананьев Николай Сергеевич. Методы и средства анализа данных в системах поддержки принятия решений (Диссертация 2005)
[стр. 66]

двойного косинусного преобразования матрицы изображения (строк и столбцов).
Критерий (2.11) позволяет оставить без изменения только
те участки, которым соответствуют наибольшие значения плотности распределения длин сегментов, т.е.
вносящие основной вклад в значение энтропии
В' тоже время из (2.11) видно, что если информация об объекте (системе) содержится не только в значениях плотности распределения параметров системы, а в их порядке в распределении, т.е.
в его форме, то мера (2.11)
не может быть использована для количественной оценки степени различий состояний такой системы.
Л потребность в таком показателе различий имеется при решении большого числа практических задач, где информация о структуре анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений, например, в задачах распознавания ситуаций.
В [38] впервые показано, что для данных, представляемых в виде двумерного массива матрицы, включая ее частный случай — вектор, может быть построен обобщенный показатель, который удерживает информацию о структуре значений этих данных.
Возможность построения такого показателя обусловлена энтропийными свойствами матрицы связи 8 вида 8 =
XX"1 (2.12) где X матрица исходных данных, называемая матрицей «объект-признак» [6], в которой строки («объекты») содержат «признаки» или характеристики 7* Т этих «объектов» (в нашем случае это матрица (X) ={%} в (2.1)); X' 7* I транспонированная матрица обратных значений данных X ((Х)‘ ={ху‘ }).
Методы построения обобщенных характеристик, базирующиеся на использовании принципа максимума неопределенности энтропии, называемого еще принципом Гиббса Джейнса (минимума субъективизма) [76], используют для этой цели его центральную идею, согласно которой наиболее характерными распределениями вероятностей состояний среды являются такие, которые максимизируют выбранную меру неопределенности
66
[стр. 62]

задачи выбора из множества характеризующихся определенными свойствами распределений (удовлетворяющих заданной системе ограничений, накладываемых на случайную величину), такого, которое максимизирует выбранную меру неопределенности — энтропию.
Согласно этому наиболее характерными распределениями вероятностей состояний неопределённой среды являются такие, которые максимизируют энтропию при заданной информации о «поведении» среды [76].
Такие распределения, обладающие максимальной энтропией называются экстремальными [49,76].
В [76] показано, что энтропия Шеннона Н(р )=]Гр,1п/?, (2.11) где вектор Р =(/>,,Р2>->Рп ), X Р, = 1, р, >0 1,л характеризует 1-1 вероятность распределения случайной величины х, принимающей дискретные значения .г,, а г 2 л г п , является единственной однозначной мерой неопределенности вероятностного распределения Р(х,).
В широком классе практических задач обобщенный показатель состояния системы (объекта), построенный с помощью энтропии (2.11) на векторе ее параметров, который может быть проинтерпретирован как распределение вероятностей, дает устойчивые результаты2.
В тоже время из (2.11) видно, что если информация об объекте (системе) содержится не только в значениях плотности распределения параметров системы, а в их порядке в распределении, т.е.
в его форме, то мера (2.11)
нс может быть использована для количественной оценки степени различий состояний такой системы.
А потребность в таком показателе различий имеется при решении большого числа практических задач, где информация о структуре 2 Например, энтропия (2.11) используется в методе «сжатия» изображений (формате) «.)𧻠как обобщенный показатель распределения уровней яркости пикселей изображения.
Такое распределение строится путем двойного косинусного преобразования матрицы изображения (строк и столбцов).
Критерий (2.11) позволяет оставить без изменения только
тс участки, которым соответствуют наибольшие значения плотности распределения длин сегментов, т.е.
вносящие основной вклад в значение энтропии.

62

[стр.,63]

анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений, например, в задачах распознавания ситуаций.
В [38] впервые показано, что для данных, представляемых в виде двумерного массива матрицы, включая ее частный случай вектор, может быть построен обобщенный показатель, который удерживает информацию о структуре значений этих данных.
Возможность построения такого показателя обусловлена энтропийными свойствами матрицы связи 8 вида 8 =
ХХ"Г (2.12) где X матрица исходных данных, называемая матрицей «объект-признак» [6], в которой строки («объекты») содержат «признаки» или характеристики этих «объектов» (в нашем случае это матрица (Х)г ={*,,} в (2.1)); Х“г транспонированная матрица обратных значений данных X ((Х)‘г ={*";'}).
Методы построения обобщенных характеристик, базирующиеся на использовании принципа максимума неопределенности энтропии, называемого еще принципом Гиббса Джейнса (минимума субъективизма) [76], используют для этой цели его центральную идею, согласно которой наиболее характерными распределениями вероятностей состояний среды являются такие, которые максимизируют выбранную меру неопределенности
при заданной информации о «поведении» среды.
При вероятностном подходе к решению практических задач информация о «поведении» среды задается в виде ограничений на закон распределения вероятностей.
Необходимо отметить, что в задачах, в которых состояния систем характеризуются значительно отличающимися распределениями вероятностей, в качестве меры неопределенности помимо (2.11) часто используется информационная энтропия: Я(р) = 1 ± р , г (2.13) 1-1 где/;, вероятность /-го состояния среды (системы); п количество состояний.
Значение р* вектора р в (2.11 и 2.13) в общем случае находится из условия: 63

[Back]