Подпишитесь на наши новости
Вернуться к началу с статьи up
 

КОРРЕЛЯ́ЦИЯ

  • рубрика

    Рубрика: Математика

  • родственные статьи
  • image description

    В книжной версии

    Том 15. Москва, 2010, стр. 371

  • image description

    Скопировать библиографическую ссылку:




Авторы: А. В. Прохоров

КОРРЕЛЯ́ЦИЯ в ма­те­ма­ти­ке, за­ви­си­мость ме­ж­ду слу­чай­ны­ми ве­ли­чи­на­ми, не имею­щая, во­об­ще го­во­ря, стро­го функ­цио­наль­но­го ха­рак­те­ра. В от­ли­чие от функ­цио­наль­ной за­ви­си­мо­сти К., как пра­ви­ло, рас­смат­ри­ва­ет­ся то­гда, ко­гда од­на из ве­ли­чин за­ви­сит не толь­ко от дан­ной др. ве­ли­чи­ны, но и от ря­да иных слу­чай­ных фак­то­ров. За­ви­си­мость ме­ж­ду дву­мя слу­чай­ны­ми со­бы­тия­ми про­яв­ля­ет­ся в том, что ус­лов­ная ве­ро­ят­ность од­но­го из них при ус­ло­вии, что дру­гое про­изош­ло, от­ли­ча­ет­ся от без­ус­лов­ной ве­ро­ят­но­сти. Ана­ло­гич­но, влия­ние од­ной слу­чай­ной ве­ли­чи­ны на дру­гую ха­рак­те­ри­зу­ет­ся ус­лов­ны­ми рас­пре­де­ле­ния­ми од­ной из них при фик­си­ро­ван­ных зна­че­ни­ях дру­гой.

Пусть $X$ и $Y$ – слу­чай­ные ве­ли­чи­ны с за­дан­ным со­вме­ст­ным рас­пре­де­ле­ни­ем ве­ро­ят­но­стей, $a_X$ и $a_Y$ – ма­те­ма­ти­че­ские ожи­да­ния, $σ^2_X$ и  $σ^2_Y$дис­пер­сии и $ρ$ – кор­ре­ля­ции ко­эф­фи­ци­ент слу­чай­ных ве­ли­чин $X$ и $Y$. Ес­ли для ка­ж­до­го воз­мож­но­го зна­че­ния $x$ слу­чай­ной ве­ли­чи­ны $X$ оп­ре­де­ле­но ус­лов­ное ма­те­ма­тич. ожи­да­ние $y(x)=\mathsf E(Y|X=x)$, то функ­ция $y(x)$ на­зы­ва­ет­ся рег­рес­си­ей ве­ли­чи­ны $Y$ по $X$. Для оцен­ки то­го, на­сколь­ко точ­но рег­рес­сия пе­ре­да­ёт из­ме­не­ние $Y$ при из­ме­не­нии $X$, ис­поль­зу­ет­ся ус­лов­ная дис­пер­сия $Y$ при дан­ном зна­че­нии $X=x$ или её ср. ве­ли­чи­на (ме­ра рас­сея­ния $Y$ око­ло ли­нии рег­рес­сии), рав­ная $$σ^2_{Y|X}=\mathsf E(Y-\mathsf E(Y|X))^2.$$

σ2Y|X=E(YE(Y|X))2.

Ес­ли $X$ и $Y$ не­за­ви­си­мы, то ус­лов­ные ма­те­ма­тич. ожи­да­ния $Y$ не за­ви­сят от $x$ и сов­па­да­ют с без­ус­лов­ным, т. е. $y(x)=a_Y$, при этом $σ^2_{Y|X}=σ^2_Y$. При функ­цио­наль­ной свя­зи ме­ж­ду $Y$ и $X$ ве­ли­чи­на $Y$ при ка­ж­дом дан­ном $X=x$ при­ни­ма­ет од­но зна­че­ние и $σ^2_{Y|X}=0$. Ана­логич­но оп­ре­де­ля­ет­ся $x(y)=\mathsf E(X|Y=y)$ – рег­рес­сия $X$ по $Y$. По­ка­за­те­лем кон­цен­тра­ции рас­пре­де­ле­ния вбли­зи ли­нии рег­рес­сии $y(x)$ слу­жит кор­ре­ля­ци­он­ное от­но­ше­ние $$η^2_{Y|X}=(σ^2_Y-σ^2_{Y|X})/σ^2_Y=1-σ^2_{Y|X}/σ^2_Y.$$Ве­ли­чи­на $η^2_{Y|X}$ рав­на ну­лю то­гда и толь­ко то­гда, ко­гда рег­рес­сия име­ет вид $y(x)=a_Y$, в этом слу­чае ко­эф. К. $ρ$ ра­вен ну­лю и ве­ли­чи­на $Y$ не кор­ре­ли­ро­ва­на с $X$. Ес­ли рег­рес­сия $Y$ по $X$ ли­ней­на, т. е. ли­ния рег­рес­сии – пря­мая, имею­щая вид $$y(x)=a_Y+\rho\frac{\sigma_Y}{\sigma_X}(x-a_X),$$ то $σ^2_{Y|X}=σ^2_Y(1-\rho^2)$ и $η^2_{Y|X}=\rho^2$. Ес­ли, кро­ме то­го, $|ρ|=1$, то $Y$ свя­за­на с $X$ точ­ной ли­ней­ной за­ви­си­мо­стью, ес­ли же $η^2_{Y|X}=ρ^2 \lt  1$, то ме­ж­ду $Y$ и $X$ нет точ­ной функ­цио­наль­ной за­ви­си­мо­сти. Точ­ная функ­цио­наль­ная за­ви­си­мость $Y$ от $X$, от­лич­ная от ли­ней­ной, име­ет ме­сто то­гда и толь­ко то­гда, ко­гда $ρ^2 \lt η^2_{Y|X}= 1$. Прак­тич. ис­поль­зо­ва­ние ко­эф. К. в ка­че­ст­ве ме­ры от­сут­ст­вия за­ви­си­мо­сти оп­рав­дан­но (за ред­ким ис­клю­че­ни­ем) лишь то­гда, ко­гда со­вме­ст­ное рас­пре­де­ле­ние $X$ и $Y$ нор­маль­но (или близ­ко к нор­маль­но­му рас­пре­де­ле­нию), т. к. в этом слу­чае из ра­вен­ст­ва $ρ=0$ сле­ду­ет не­за­ви­си­мость $X$ и $Y$. Для про­из­воль­ных слу­чай­ных ве­ли­чин $X$ и $Y$ ис­поль­зо­ва­ние $ρ$ как ме­ры за­ви­си­мо­сти час­то при­во­дит к оши­боч­ным вы­во­дам, т. к. $ρ$ мо­жет рав­нять­ся ну­лю да­же при функ­цио­наль­ной свя­зи ме­ж­ду ве­ли­чи­на­ми. Ес­ли со­вме­ст­ное рас­пре­де­ле­ние $X$ и $Y$ нор­маль­но, то обе ли­нии рег­рес­сии $y(x)$ и $x(y)$ суть пря­мые, при $|ρ|=1$ пря­мые рег­рес­сии сли­ва­ют­ся в од­ну, что со­от­вет­ст­ву­ет ли­ней­ной за­ви­си­мо­сти ме­ж­ду $X$ и $Y$, при $ρ=0$ ве­ли­чи­ны $X$ и $Y$ не­за­ви­си­мы.

При изу­че­нии свя­зи ме­ж­ду не­сколь­ки­ми слу­чай­ны­ми ве­ли­чи­на­ми $X_1,...,X_n$ с за­дан­ным со­вме­ст­ным рас­пре­де­ле­ни­ем ис­поль­зу­ет­ся кор­ре­ля­ци­он­ная мат­ри­ца, эле­мен­та­ми ко­то­рой яв­ля­ют­ся обыч­ные ко­эф­фи­ци­ен­ты К. $ρ_{ij}$ ме­ж­ду $X_i$ и $X_j, i, j=1,...,n$. Ме­рой ли­ней­ной К. ме­ж­ду $X_1$ и со­во­куп­но­стью ос­таль­ных ве­ли­чин $X_2,...,X_n$ слу­жит мно­же­ст­вен­ный ко­эф. К., ко­то­рый оп­ре­де­ля­ет­ся как обыч­ный ко­эф. К. ме­ж­ду $X_1$ и наи­луч­шим ли­ней­ным при­бли­же­ни­ем $X_1$ по $X_2,...,X_n$, т. е. ме­ж­ду $X_1$ и $β_1+β_2X_2+...+β_nX_n$, где чис­ла $β_1,...,β_n$ оп­ре­де­ля­ют­ся так, что­бы дис­пер­сия ве­ли­чи­ны $X_1-(β_1+β_2X_2+...+β_nX_n)$ бы­ла ми­ни­маль­ной. Мно­же­ст­вен­ный ко­эф. К. вы­ра­жа­ет­ся че­рез эле­мен­ты кор­ре­ля­ци­он­ной мат­ри­цы, напр. при $n=3$ он ра­вен $$ρ_{1\cdot (23)}=\sqrt{\frac{ρ^2_{12}+ρ^2_{13}-2ρ_{12}ρ_{13}ρ_{23}}{1-ρ^2_{23}}}.$$

Ес­ли пред­по­ла­га­ет­ся, что из­ме­не­ние ве­ли­чин $X_1$ и $X_2$ оп­ре­де­ля­ет­ся в ка­кой-то ме­ре из­ме­не­ни­ем ос­таль­ных ве­ли­чин $X_3,\ldots,X_n$, то по­ка­за­те­лем ли­ней­ной свя­зи ме­ж­ду $X_1$ и $X_2$ при ис­клю­че­нии влия­ния $X_3,...,X_n$ яв­ля­ет­ся ча­ст­ный коэф. К. ме­ж­ду $X_1$ и $X_2$ от­но­си­тель­но $X_3,...,X_n$, ко­то­рый оп­ре­де­ля­ет­ся как обыч­ный ко­эф. К. ме­ж­ду $X_1-X_1^*$ и $X_2-X_2^*$, где $X_1^*$, $X_2^*$ – со­от­вет­ст­вен­но наи­луч­шие ли­ней­ные при­бли­же­ния $X_1$ и $X_2$ по $X_3,...,X_n$. Напр., в слу­чае $n=3$ этот ко­эф. ра­вен $$ρ_{12\cdot3}=\frac{ρ_{12}-ρ_{12}ρ_{23}}{\sqrt{(1-ρ_{13}^2)(1-ρ_{23}^2)}}.$$ В ма­те­ма­тич. ста­ти­сти­ке раз­ра­бо­та­ны ме­то­ды оцен­ки К. ме­ж­ду слу­чай­ны­ми ве­ли­чи­на­ми и ме­то­ды про­вер­ки ги­по­тез о зна­че­ни­ях К., ис­поль­зую­щие их вы­бо­роч­ные ана­ло­ги. См. Кор­ре­ля­ци­он­ный ана­лиз.

Лит.: Кен­далл М., Стьюарт А. Ста­ти­сти­че­ские вы­во­ды и свя­зи. М., 1973.

Вернуться к началу