Спецификация и способ статистического анализа моделей типа (3.25) зависят от конкретизации требований к виду функции Г(Х), природе объясняющих переменных X и стохастических регрессионных остатков в(Х). Все выводы в регрессионном анализе строятся на основании имеющихся исходных статистических данных. Итак, будем полагать, что мы располагаем результатами регистрации значений анализируемых объясняющих (х(1), х<2), ..., х(п>) и результирующей (у) переменных на р статистически обследованных объектах (в нашем случае пациенты). Так что, если ) номер обследованного объекта, то имеющиеся исходные статистические данные состоят из р строк вида (3.26): (х,<',,х /2,,..,х /" );у))^ = (,р ), (3.26) где х/0 и значения соответственно ¡-й (1 = (1, п)) объясняющей переменной и результирующего показателя, зарегистрированные на ]-м обследованном объекте. Данные в регрессионном анализе обычно представляются в виде двух матриц вида (3.27): 77 (1 Г Ш Л1 Г("Л. . . л , V X = 1 х {'}. . . л 2 , ¥ = Уг ,1 < ... х {"\Р ' кУг; где X матрица размера р*(п+1), составленная из значений объясняющих переменных и У матрица размера р*1, составленная из значений результирующей переменной. Рассмотрим линейную модель множественной регрессии в аналитическом виде (3.28): |
183 Я 1 ) = / ( 1 ) + 8 ( Д Ег(Х) = 0. (5.16) Присутствие случайной "остаточной" составляющей ("регрессионных остатков") е(Х) в первом соотношении уравнений (5.16) обусловлено причинами двоякой природы [14]: во-первых, она отражает влияние на формирование значений у факторов, неучтенных в перечне объясняющих переменных X; во-вторых, она может включать в себя случайную погрешность в измерении значения результирующего показателя у (даже в "идеальной" ситуации, когда по значениям объясняющих переменных X в принципе можно было бы однозначно восстановить значения анализируемой результирующей переменной). Второе соотношение (тождество) в уравнении (5.16) непосредственно следует из смысла функции регрессии Д(Х) = Е (у X), поскольку усреднение (вычисление математического ожидания) левых и правых частей первого из соотношений (2.17) при любом фиксированном значении X дает [16]: А так как Е(у(Х)Х) = ДХ) по определению и Е(ДХ)) = ДХ) (поскольку величина ДХ) при фиксированных значениях X не является случайной), то Е(е(Х)) = 0 при любом фиксированном значении X. Спецификация и способ статистического анализа моделей типа (5.16) зависят от конкретизации требований к виду функции ДХ), природе объясняющих переменных X и стохастических регрессионных остатков е(Х). Все выводы в регрессионном анализе строятся на основании имеющихся исходных статистических данных. Итак, будем полагать, что мы располагаем результатами регистрации значений анализируемых объясняющих (х , х(2), ..., х(п)) и результирующей (у) переменных на р статистически обследованных объектах (в нашем случае пациенты). Так что, Е(у(Х)Х) = Е(ДХ)) + Е(в(Х)). (5.17) 184 если } номер обследованного объекта, то имеющиеся исходные статистические данные состоят из р строк вида: (х /Ч х /^ .,х /п); у ^ = (1,р), (5.18) где х/1' и у} значения соответственно ¡-й (1 = ( 1 , п)) объясняющей переменной и результирующего показателя, зарегистрированные на )-м обследованном объекте. Данные в регрессионном анализе обычно представляются в виде двух матриц вида: Х = 1 х О) 1 ,0) .(1) .(«) \ ГУ," У2 , у = • • • / КУ,; (5.19) где X матрица размера р*(п+1 ), составленная из значений объясняющих переменных и У матрица размера р*1 , составленная из значений результирующей переменной. Рассмотрим линейную модель множественной регрессии в аналитическом виде [3]: п УJ = a0+ 'L a lx (; >+ &/, 1=1 Яе, = 0 ; V I } = к ’ (5.20) 0 у ф к £ ( £ А ) = р + 1 < п Для того, чтобы найти такую матрицу-столбец А, составленную из элементов а0) аь ..., ап, необходимо воспользоваться методом наименьших квадратов. В основе логики метода наименьших квадратов лежит стремление подобрать такие оценки ао, аь ..., ап, при которых сглаженные |