НЕЗАВИ́СИМОСТЬ
-
Рубрика: Математика
-
Скопировать библиографическую ссылку:
НЕЗАВИ́СИМОСТЬ в теории вероятностей – одно из важнейших специфич. понятий теории вероятностей. Пусть $A$ и $B$ – два случайных события, а $\text P(A)$ и $\text P(B)$ – их вероятности. Условную вероятность $\text P(A|B)$ события $A$ при условии осуществления события $B$ (с $\text P(B) > 0$) определяют равенством $\text P(A|B)=\text P\text (A\cap B)/\text P(B)$, где $\text P(A\cap B)$ – вероятность совместного осуществления событий $A$ и $B$. Событие $A$ называют независимым от события $B$, если $\text P(A|B)=\text P(A)$. Это равенство может быть записано в виде, симметричном относительно $A$ и $B$ и свободном от условия $\text P(B)>0$:
$$\text P(A\cap B)=\text P(A)\text P(B),\tag1$$откуда видно, что если событие $A$ не зависит от $B$, то и $B$ не зависит от $A$. Статистич. смысл определения Н. проясняется при переходе от вероятностей событий к частотам: если производится большое число испытаний, то между частотой появления события $A$ во всех испытаниях и частотой его появления в тех испытаниях, в которых происходит событие $B$, должно иметь место приближённое равенство. Н. событий означает либо отсутствие связи между наступлением этих событий, либо несущественный характер этой связи.
При определении Н. нескольких событий различают попарную и взаимную Н. События $A_1,\: A_2,\:\dots,\: A_n$ называются попарно независимыми, если любые два из них независимы в смысле определения (1). События $A_1,\: A_2,\:\dots,\: A_n$ называются взаимно независимыми, если для любого натурального числа $k,\; 2⩽k⩽n$, и всех наборов чисел $1 ⩽\: i_1 <\:...<\:i_k⩽\:n$ справедливы равенства$$\text P(A_{i_1}\cap A_{i_2}\cap...\cap A_{i_k})=\text P(A_{i_1})\text P(A_{i_2})...\text P(A_{i_k}).\tag2$$
Условие попарной Н. является частью условия взаимной Н. (при $k$ = 2). Условие (2) содержит $2^n-n-1$ соотношений, и при больших $n$ его проверка затруднительна. Однако в моделях теории вероятностей Н. обычно вводится как допущение.
Понятие Н. переносится и на случайные величины. Случайные величины $X$ и $Y$ называются независимыми, если для любых интервалов $A$ и $B$ действительной прямой события, заключающиеся в том, что значение $X$ принадлежит интервалу $A$, а значение $Y$ – интервалу $B$, независимы. Аналогично определение Н. для нескольких случайных величин.
На предположении Н. тех или иных событий и случайных величин основаны важнейшие схемы теории вероятностей (см., напр., Бернулли схема). Основные фундам. результаты теории вероятностей первоначально были доказаны в предположении Н. случайных величин (см. Предельные теоремы теории вероятностей).