условиях неполноты и многомерности данных. 4.В задачах, в которых состояния систем характеризуются значительно отличающимися распределениями вероятностей, в качестве меры неопределенности часто используется информационная энтропия или энтропия Шеннона. Однако эти меры не всегда пригодны для решения определенных задач, в частности, распознавания ситуаций, в силу того, что эти меры не учитывают порядок следования значений плотности распределения параметров системы, а только сами значения. Предложенный к использованию вид энтропийного функционала позволяет учитывать также и порядок следования элементов системы в задачах, где информация о структуре анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений. 74 |
анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений, например, в задачах распознавания ситуаций. В [38] впервые показано, что для данных, представляемых в виде двумерного массива матрицы, включая ее частный случай вектор, может быть построен обобщенный показатель, который удерживает информацию о структуре значений этих данных. Возможность построения такого показателя обусловлена энтропийными свойствами матрицы связи 8 вида 8 = ХХ"Г (2.12) где X матрица исходных данных, называемая матрицей «объект-признак» [6], в которой строки («объекты») содержат «признаки» или характеристики этих «объектов» (в нашем случае это матрица (Х)г ={*,,} в (2.1)); Х“г транспонированная матрица обратных значений данных X ((Х)‘г ={*";'}). Методы построения обобщенных характеристик, базирующиеся на использовании принципа максимума неопределенности энтропии, называемого еще принципом Гиббса Джейнса (минимума субъективизма) [76], используют для этой цели его центральную идею, согласно которой наиболее характерными распределениями вероятностей состояний среды являются такие, которые максимизируют выбранную меру неопределенности при заданной информации о «поведении» среды. При вероятностном подходе к решению практических задач информация о «поведении» среды задается в виде ограничений на закон распределения вероятностей. Необходимо отметить, что в задачах, в которых состояния систем характеризуются значительно отличающимися распределениями вероятностей, в качестве меры неопределенности помимо (2.11) часто используется информационная энтропия: Я(р) = 1 ± р , г (2.13) 1-1 где/;, вероятность /-го состояния среды (системы); п количество состояний. Значение р* вектора р в (2.11 и 2.13) в общем случае находится из условия: 63 3. Требованиями к методу построения обобщенных оценок являются: их гарантированность; возможность использования исходных данных без их нормировки; наглядность оценки; его реализуемость в виде простых, вычислительных алгоритмов, позволяющих их использование в приложениях интеллектуального анализа данных. Использование метода максимума энтропии для снятия неопределенности при обработке многомерных данных позволяет выполнить указанные выше требования, а также устраняет формальные и вычислительные сложности в решении задач кластеризации и получении гарантированных оценок вследствие метрических свойств ее максимального значения и относительной простоты получения сс значения. Одновременно благодаря метрическим свойствам она может использоваться как интегральный критерий, что снимает проблему обоснования критерия в условиях неполноты и многомерности данных. 4. В задачах, в которых состояния систем характеризуются значительно отличающимися распределениями вероятностей, в качестве меры неопределенности часто используется информационная энтропия или энтропия Шеннона. Однако эти меры не всегда пригодны для решения определенных задач, в частности, распознавания ситуаций, в силу того, что эти меры не учитывают порядок следования значений плотности распределения параметров системы, а только сами значения. Предложенный к использованию вид энтропийного функционала позволяет учитывать также и порядок следования элементов системы в задачах, где информация о структуре анализируемых данных является ключевой с точки зрения информационной поддержки принятия решений. 4 70 |