Подпишитесь на наши новости
Вернуться к началу с статьи up
 

РЕГРЕССИО́ННЫЙ АНА́ЛИЗ

  • рубрика

    Рубрика: Математика

  • родственные статьи
  • image description

    В книжной версии

    Том 28. Москва, 2015, стр. 314

  • image description

    Скопировать библиографическую ссылку:




РЕГРЕССИО́ННЫЙ АНА́ЛИЗ, раз­дел ма­те­ма­тич. ста­ти­сти­ки, объ­е­ди­няю­щий прак­тич. ме­то­ды ис­сле­до­ва­ния рег­рес­си­он­ной за­ви­си­мо­сти ме­ж­ду ве­ли­чи­на­ми по ста­ти­стич. дан­ным. В от­ли­чие от функ­цио­наль­ной за­ви­си­мо­сти $y=y(x)$, ко­гда ка­ж­до­му зна­че­нию не­за­ви­си­мой пе­ре­мен­ной $x$ со­от­вет­ст­ву­ет од­но оп­ре­де­лён­ное зна­че­ние ве­ли­чи­ны $y$, при рег­рес­си­он­ной за­ви­си­мо­сти од­но­му и то­му же зна­че­нию $x$ мо­гут со­от­вет­ст­во­вать в за­ви­си­мо­сти от слу­чая разл. зна­че­ния ве­ли­чи­ны $y$. При­ме­ром та­ко­го ро­да за­ви­си­мо­сти слу­жит, напр., за­ви­си­мость сред­них диа­мет­ров со­сен от их вы­сот.

Изу­че­ние рег­рес­сии с точ­ки зре­ния тео­рии ве­ро­ят­но­стей ос­но­ва­но на том, что слу­чай­ные ве­ли­чи­ны $X$ и $Y$ с за­дан­ным со­вме­ст­ным рас­пре­де­ле­ни­ем ве­ро­ят­но­стей свя­за­ны ве­ро­ят­но­ст­ной за­ви­си­мо­стью: при ка­ж­дом фик­си­ро­ван­ном зна­че­нии $X=x$ ве­ли­чи­на $Y$ яв­ля­ет­ся слу­чай­ной ве­ли­чи­ной с оп­ре­де­лён­ным (за­ви­ся­щим от $x$) ус­лов­ным рас­пре­де­ле­ни­ем ве­ро­ят­но­стей. Рег­рес­сия ве­ли­чи­ны $Y$ по ве­ли­чи­не $X$ оп­ре­де­ля­ет­ся ус­лов­ным ма­те­ма­тич. ожи­да­ни­ем $Y$, вы­чис­лен­ным при ус­ло­вии, что $X=x$: $$\sf E \it(Y∣x)=y(x).$$ Гра­фик функ­ции $y=y(x)$ на­зы­ва­ет­ся ли­ни­ей или кри­вой рег­рес­сии ве­ли­чи­ны $Y$ по $X$; пе­ре­мен­ная $x$ на­зы­ва­ет­ся рег­рес­си­он­ной пе­ре­мен­ной или рег­рес­со­ром. Точ­ность, с ко­то­рой урав­не­ние рег­рес­сии $Y$ по $X$ от­ра­жа­ет из­ме­не­ние $Y$ в сред­нем при из­ме­не­нии $x$, из­ме­ря­ет­ся ус­лов­ной дис­пер­си­ей ве­ли­чи­ны $Y$, вы­чис­лен­ной для ка­ж­до­го зна­че­ния $X=x$: $$\sf \it D(Y∣x)=σ^2(x).$$ Ес­ли $σ^2(x)=0$ при всех зна­че­ни­ях $x$, то $Y$ и $X$ свя­за­ны стро­гой функ­цио­наль­ной за­ви­си­мо­стью. Ес­ли $σ^2(x)≠0$ ни при ка­ком зна­че­нии $x$ и $y(x)$ не за­ви­сит от $x$, то го­во­рят, что рег­рес­сия $Y$ по $X$ от­сут­ст­ву­ет. Ана­ло­гич­ным об­ра­зом оп­ре­де­ля­ет­ся рег­рес­сия $X$ по $Y$.

Ли­нии рег­рес­сии об­ла­да­ют сле­дую­щим свой­ст­вом: сре­ди всех дей­ст­ви­тель­ных функ­ций $f(x)$ ми­ни­мум ма­те­ма­тич. ожи­да­ния ве­ли­чи­ны $\sf E \it (Y-f(X))^2$ дос­ти­га­ет­ся для функ­ции $f(x)=\sf E\it (Y∣x)$, т. е. ре­грес­сия $Y$ по $X$ да­ёт наи­луч­шее, в ука­зан­ном смыс­ле, пред­став­ле­ние ве­ли­чи­ны $Y$ по ве­ли­чи­не $X$. Это свой­ст­во ис­поль­зу­ет­ся для про­гно­за $Y$ по $X$: ес­ли не­по­сред­ст­вен­но на­блю­да­ет­ся лишь ком­по­нен­та $X$ век­то­ра $(X,Y)$, то в ка­че­ст­ве про­гно­зи­руе­мо­го зна­че­ния $Y$ ис­поль­зу­ют ве­ли­чи­ну $y(X)$.

Наи­бо­лее про­стым яв­ля­ет­ся слу­чай, ко­гда рег­рес­сия $Y$ по $X$ ли­ней­на: $$\sf E \it (Y∣x)=\rm β_0+β_1\it x.$$ Ко­эф­фи­ци­ен­ты $β_0$ и $β_1$ на­зы­ва­ют­ся ко­эф­фи­ци­ен­та­ми рег­рес­сии, их мож­но вы­чис­лять по фор­му­лам $$β_0=m_Y-ρ\frac{σ_Y}{σ_X}m_x,\quad β_1=ρ\frac{σ_Y}{σ_X},$$где $m_X$, $m_Y$ – ма­те­ма­тич. ожи­да­ния, $σ^2_X$, $σ^2_Y$ – дис­пер­сии $X$, $Y$, а $ρ$ – кор­ре­ля­ции ко­эф­фи­ци­ент ме­ж­ду $X$ и $Y$. Кри­вая ре­грес­сии при этом име­ет вид$$y=m_Y+ρ\frac{σ_Y}{σ_X}(x-m_X).$$

В об­щем слу­чае кри­вая рег­рес­сии обыч­но вы­ра­жа­ет­ся ли­ней­ной ком­би­на­ци­ей тех или иных за­дан­ных функ­ций:$$y(x)=\\=β_0φ_0(x)+ β_1φ_1(x)+...+ β_mφ_m(x).$$ Наи­бо­лее важ­ное зна­че­ние име­ет по­ли­но­ми­аль­ная рег­рес­сия, при ко­то­рой $$y(x)= β_0+β_1x+...+ β_mx^m.$$ Оцен­ка не­из­вест­ных ко­эф­фи­ци­ен­тов $β_0,...,β_m$ осу­ще­ст­в­ля­ет­ся наи­мень­ших квад­ра­тов ме­то­дом. Оцен­ки $\hat β_0,...,\hat β_m$ па­ра­мет­ров $β_0,...,β_m$, по­лу­чен­ные этим ме­то­дом, на­зы­ва­ют­ся вы­бо­роч­ны­ми ко­эф­фи­ци­ен­та­ми рег­рес­сии, а мно­го­член $$\hat y(x)=\hat β_0+\hat β_1x+...+\hat β_mx_m$$оп­ре­де­ля­ет эм­пи­ри­че­скую ли­нию рег­рес­сии, ко­то­рая слу­жит ста­ти­стич. оцен­кой не­из­вест­ной ис­тин­ной ли­нии рег­рес­сии. Этот ме­тод в пред­по­ло­же­нии нор­маль­ной рас­пре­де­лён­но­сти ре­зуль­та­тов на­б­лю­де­ний при­во­дит к оцен­кам, сов­па­даю­щим с оцен­ка­ми, по­лу­чен­ны­ми мак­си­маль­но­го прав­до­по­до­бия ме­то­дом. Оцен­ки, по­лу­чен­ные этим ме­то­дом, ока­зы­ва­ют­ся, од­на­ко, в не­ко­то­ром смыс­ле наи­луч­ши­ми и в слу­чае от­кло­не­ния от нор­маль­ной рас­пре­де­лён­но­сти, ес­ли толь­ко объ­ём вы­бор­ки дос­та­точ­но ве­лик.

Лит.: Кен­далл М. Дж., Стьюарт А. Ста­ти­сти­че­ские вы­во­ды и свя­зи. М., 1973; Кра­мер Г. Ма­те­ма­ти­че­ские ме­то­ды ста­ти­сти­ки. 2-е изд. М., 1975.

Вернуться к началу