Проверяемый текст
Ананьев Николай Сергеевич. Методы и средства анализа данных в системах поддержки принятия решений (Диссертация 2005)
[стр. 39]

сводится к простому перемножению матриц, формируемых значениями частных и известной обобщенной характеристики.
На втором шаге полученная аналитическая зависимость используется для прогнозирования обобщенной характеристики.
Все модификации данного метода предусматривают нахождение регрессионной зависимости индикаторного показателя (например, среднестатистических затрат с) от характеристик объекта (системы) с=Ах\*г,---*й4\,а2,...А),
(1.5.1) где (а, а2,...Д)оценки параметров а\> а2,...аг, определяемые видом функции / Типичным представителем методов, для которых индикаторный показатель, вычисленный по зависимости (1.5.1), входит непосредственно в формулу обобщенного показателя, является метод, в котором обобщенный показатель формируется путем сравнения затрат с*„ на реализацию /-го проекта объекта с некоторыми среднестатистическими затратами (с): т=с/С1.
Общим недостатком этой группы методов применительно к прогнозированию характеристик объектов является необходимость оценки стоимости существующих и перспективных образцов.
Принципиальными ограничениями регрессионной модели являются: необходимость нормировки (для получения безразмерных коэффициентов); неформализуемость процесса выбора вида аппроксимирующей зависимости; предположение об отсутствии качественных скачков в значениях частных характеристик на участке экстраполяции значений функции.

В задачах распознавания метод оказывается эффективным только для выборок, ковариационная матрица которых мало отличается от диагональной (система с независимыми признаками), что в реальности выполняется редко [6,741.

39
[стр. 37]

рассчитанной по принятой аппроксимирующей зависимости.
Для линейного случая процедура нахождения коэффициентов сводится к простому перемножению матриц, формируемых значениями частных и известной обобщенной характеристики.
На втором шаге полученная аналитическая зависимость используется для прогнозирования обобщенной характеристики.
Все модификации данного метода предусматривают нахождение регрессионной зависимости индикаторного показателя (например, среднестатистических затрат с) от характеристик объекта (системы) с =
4/'(х,х2,...,дгл,Я,я2, .
.
.
, , (1.5.1) где (5„я2,...,5,)оценки параметров а„а2,...,аг, определяемые видом функции /• Типичным представителем методов, для которых индикаторный показатель, вычисленный по зависимости (1.5.1), входит непосредственно в формулу обобщенного показателя, является метод, в котором обобщенный показатель IV, формируется путем сравнения затрат С/, на реализацию /-го проекта объекта с некоторыми среднестатистическими затратами (с): IV, = с/с, .
Общим недостатком этой группы методов применительно к прогнозированию характеристик объектов является необходимость оценки стоимости существующих и перспективных образцов.
Принципиальными ограничениями регрессионной модели являются: необходимость нормировки (для получения безразмерных коэффициентов); неформализуемость процесса выбора вида аппроксимирующей зависимости; предположение об отсутствии качественных скачков в значениях частных характеристик на участке экстраполяции значений функции.

37

[стр.,38]

В задачах распознавания метод оказывается эффективным только для выборок, ковариационная матрица которых мало отличается от диагональной (система с независимыми признаками), что в реальности выполняется редко [6,74].
Дискриминантный анализ Данный метод предполагает, что имеется некоторый набор т.н.
дискриминантных функций, определенных на множестве частных характеристик (признаков), с помощью которых строятся разделяющие поверхности (плоскости) в пространстве этих характеристик (признаков).
Разделяющие поверхности используются для построения решающих правил, используемых в алгоритмах принятия решений и кластеризации [10,12].
Практически используемые решающие правила реализуют байесовскую схему принятия решения о принадлежности элементов исследуемой выборки к одному из фиксированного множества классов (типов, эталонов).
Байесовский подход базируется на предположении, что задача сформулирована в терминах теории вероятностей и известны априорные вероятности появления элементов выборки и условные плотности распределения значений их признаков.
Решение о принадлежности рассматриваемого элемента (объекта) к определенному классу принимается при выполнении условия, обеспечивающего минимум средней вероятности ошибки классификации [10,58].
Методы дискриминантного анализа дают удовлетворительные результаты при соблюдении достаточно жестких условий нормальности распределений объектов внутри классов и равенства ковариационных матриц для каждого класса [7,10].
На практике эти условия, как правило, не выполняются.
Принципиальными недостатками дискриминантного анализа являются: предположение о стохастической природе выборки; необоснованное задание видов законов распределения из-за 38

[Back]