Проверяемый текст
[стр. 77]

Спецификация и способ статистического анализа моделей типа (3.25) зависят от конкретизации требований к виду функции Г(Х), природе объясняющих переменных X и стохастических регрессионных остатков в(Х).
Все выводы в регрессионном анализе строятся на основании имеющихся исходных статистических данных.
Итак, будем полагать, что мы располагаем результатами регистрации значений анализируемых объясняющих (х(1),
х<2), ..., х(п>) и результирующей (у) переменных на р статистически обследованных объектах (в нашем случае пациенты).
Так что,
если ) номер обследованного объекта, то имеющиеся исходные статистические данные состоят из р строк вида (3.26): (х,<',,х /2,,..,х /" );у))^ = (,р ), (3.26) где х/0 и значения соответственно ¡-й (1 = (1, п)) объясняющей переменной и результирующего показателя, зарегистрированные на ]-м обследованном объекте.
Данные в регрессионном анализе обычно представляются в виде двух матриц вида
(3.27): 77 (1 Г Ш Л1 Г("Л.
.
.
л , V X = 1 х {'}.
.
.
л 2 , ¥ = Уг ,1 < ...
х {"\Р ' кУг; где X матрица размера р*(п+1), составленная из значений объясняющих переменных и У матрица размера р*1, составленная из значений результирующей переменной.
Рассмотрим линейную модель множественной регрессии в аналитическом виде (3.28):
[стр. 183]

183 Я 1 ) = / ( 1 ) + 8 ( Д Ег(Х) = 0.
(5.16) Присутствие случайной "остаточной" составляющей ("регрессионных остатков") е(Х) в первом соотношении уравнений (5.16) обусловлено причинами двоякой природы [14]: во-первых, она отражает влияние на формирование значений у факторов, неучтенных в перечне объясняющих переменных X; во-вторых, она может включать в себя случайную погрешность в измерении значения результирующего показателя у (даже в "идеальной" ситуации, когда по значениям объясняющих переменных X в принципе можно было бы однозначно восстановить значения анализируемой результирующей переменной).
Второе соотношение (тождество) в уравнении (5.16) непосредственно следует из смысла функции регрессии Д(Х) = Е (у X), поскольку усреднение (вычисление математического ожидания) левых и правых частей первого из соотношений (2.17) при любом фиксированном значении X дает [16]: А так как Е(у(Х)Х) = ДХ) по определению и Е(ДХ)) = ДХ) (поскольку величина ДХ) при фиксированных значениях X не является случайной), то Е(е(Х)) = 0 при любом фиксированном значении X.
Спецификация и способ статистического анализа моделей типа
(5.16) зависят от конкретизации требований к виду функции ДХ), природе объясняющих переменных X и стохастических регрессионных остатков е(Х).
Все выводы в регрессионном анализе строятся на основании имеющихся исходных статистических данных.
Итак, будем полагать, что мы располагаем результатами регистрации значений анализируемых объясняющих (х ,
х(2), ..., х(п)) и результирующей (у) переменных на р статистически обследованных объектах (в нашем случае пациенты).
Так что,
Е(у(Х)Х) = Е(ДХ)) + Е(в(Х)).
(5.17)

[стр.,184]

184 если } номер обследованного объекта, то имеющиеся исходные статистические данные состоят из р строк вида: (х /Ч х /^ .,х /п); у ^ = (1,р), (5.18) где х/1' и у} значения соответственно ¡-й (1 = ( 1 , п)) объясняющей переменной и результирующего показателя, зарегистрированные на )-м обследованном объекте.
Данные в регрессионном анализе обычно представляются в виде двух матриц вида:
Х = 1 х О) 1 ,0) .(1) .(«) \ ГУ," У2 , у = • • • / КУ,; (5.19) где X матрица размера р*(п+1 ), составленная из значений объясняющих переменных и У матрица размера р*1 , составленная из значений результирующей переменной.
Рассмотрим линейную модель множественной регрессии в аналитическом виде [3]:
п УJ = a0+ 'L a lx (; >+ &/, 1=1 Яе, = 0 ; V I } = к ’ (5.20) 0 у ф к £ ( £ А ) = р + 1 < п Для того, чтобы найти такую матрицу-столбец А, составленную из элементов а0) аь ..., ап, необходимо воспользоваться методом наименьших квадратов.
В основе логики метода наименьших квадратов лежит стремление подобрать такие оценки ао, аь ..., ап, при которых сглаженные

[Back]