69 объема пространства признаков: v f f o . («-О /-1 где t, количество градаций / й оси. Использование формулы (0.1) приводит не только к уменьшению общего количества признаков, но и к уменьшению количества их градаций. В то же время, необходимо отметить тот факт, что снижение количества признаков является более эффективным средством, нежели снижение их градаций. Л.В.Лапко [71] указывает на наличие следующих подходов к формированию оптимального набора признаков: на основе исключения из числа признаков несущественных; на основе формирования интегральных признаков. Использование первого подхода связано е необходимостью задания какого-либо порогового критерия для отброса «несущественных» переменных, что соответственно приводит к зависимости от выбора порогового значения соответствующего субъективному представлению исследователя об уровне критерия, и выбора соответствующей меры информативности. Остановимся на существующих мерах информативности далее. Также в этом случае возможно возникновение двух типов ошибки: включение несущественных переменных и исключение существенных. Возможность понижения размерности признакового пространства становится возможной в силу наличия следующих факторов: наличия дублирования информации, доставляемой сильно взаимосвязанными показателями; малой вариабельностью показателей; возможностью агрегирования показателей. Рассмотрим более подробно существующие методы снижения размерности: метод главных компонент; |
рамках пост-переходных экономик. В силу этого, особое внимание необходимо обратить на специфику идентификации информационных составляющих модели £0]. Рассмотрим более подробно некоторые из проблем, приведенных в табл.2.6. Так, например, Б.Г.Миркин в своей работе [110] указывает на наличие следующих проблем: наличие «множественности» связей между объектами и явление ложной корреляции. Также необходимо отметить наличие высокого уровня «зашумленности» и пропуска данных. Таким образом, для построения адекватных моделей целесообразно производить предобработку имеющихся данных. В частности, часто необходимо производить сокращение числа признаков исходного пространства, по которым будет производиться идентификация модели, с целью выбора наиболее простого и информативного пространства признаков [126, 130]. Сокращение исходного числа признаков позволяет, согласно исследованиям проведенным Г.С.Лбовым [89]: во первых снизить объем выборки и улучшить качество получаемого решения; во вторых уменьшить затраты, связанные с проведением измереу^й признаков.Снижение размерности признакового пространства, как указывает в своей работе И.Д.Мандель [99], благоприятно влияет на результат проводимой классификации. В то же время, существует проблема потери информативности признаков в процессе понижения размерности исходного пространства признаков. Под снижением размерности признакового пространства в общем случае, согласно определению, данного Н.Г.Загоруйко [61], понимают минимизацию объема пространства признаков: У=П ‘<> (2-1) /= где tt количество градаций l й оси. д Использование формулы (2.1) приводит не только к уменьшению общего количества признаков, но и к уменьшению количества их градаций. В то же время, необходимо отметить тот факт, что снижение количества признаков является более эффективным средством, нежели снижение их градаций. А.В.Лапко [87] указывает на наличие следующих подходов к формированию оптимального набора признаков: 69 А А на основе исключения из числа признаков несущественных; на основе формирования интегральных признаков. Использование первого подхода связано с необходимостью задания каюголибо порогового критерия для отброса «несущественных» переменных, что соответственно приводит к зависимости от выбора порогового значения соответствующего субъективному представлению исследователя об уровне критерия, и выбора соответствующей меры информативности. Остановимся на существующих мерах информативности далее. Л Также в этом случае возможно возникновение двух типов ошибки: включение несущественных переменных и исключение существенных. Возможность понижения размерности признакового пространства стаговится возможной в силу наличия следующих факторов: наличия дублирования информации, доставляемой сильно взаимосвязанными показателями; малой вариабельностью показателей; возможностью агрегирования показателей. Рассмотрим более подробно существующие методы снижения размерности: метод главных компонент; сведение частных критериальных показателей к единому интегральному; классификация признаков в виде объектов; нейронные сети. Одним из наиболее часто используемых методов снижения размерности ис' следуемого признакового пространства является метод построения главных компонент [136] исходного признакового пространства. Суть метода заключается в построении необходимого числа главных компонент, являющихся линейной комбишцией начальных переменных: А zw (X) =lt *X, (2.2) 70 |