НАИМЕ́НЬШИХ КВАДРА́ТОВ МЕ́ТОД
-
Рубрика: Математика
-
Скопировать библиографическую ссылку:
НАИМЕ́НЬШИХ КВАДРА́ТОВ МЕ́ТОД, один из методов ошибок теории, предназначенный для оценки неизвестных величин по результатам их измерений, содержащим случайные ошибки. Н. к. м. применяется также для приближённого представления заданной функции другими (более простыми) функциями. Н. к. м. предложен К. Гауссом (1794–1795) и А. Лежандром (1805–06). Первоначально Н. к. м. использовался для обработки результатов астрономич. и геодезич. наблюдений. Строгое математич. обоснование и установление границ применимости Н. к. м. даны А. А. Марковым (1898) и А. Н. Колмогоровым (1946).
Сущность обоснования Н. к. м. (по Гауссу) заключается в допущении, что «убыток» от замены точного (неизвестного) значения физич. величины $μ$ её приближённым значением $X$, вычисленным по результатам наблюдений, пропорционален квадрату ошибки, т. е. величине $(X-μ)^2$. В этих условиях оптимальной оценкой естественно признать такую лишённую систематич. ошибки величину $X$, для которой ср. значение «убытка» минимально. Именно это требование составляет основу Н. к. м. В общем случае отыскание оптимальной в смысле Н. к. м. оценки $X$ – задача весьма сложная, поэтому на практике эту задачу сужают и в качестве $X$ выбирают линейную функцию от результатов наблюдений, лишённую систематич. ошибки, и такую, для которой ср. значение «убытка» минимально в классе всех линейных функций. Если случайные ошибки наблюдений подчиняются нормальному распределению и оцениваемая величина $μ$ зависит от ср. значений результатов наблюдений линейно (случай, весьма часто встречающийся в приложениях Н. к. м.), то решение этой задачи будет одновременно являться и решением общей задачи. При этом оптимальная оценка $X$ величины $μ$ также подчиняется нормальному распределению со ср. значением $μ$ и, следовательно, плотность$$p(x; μ, \sigma)=\frac{1}{\sqrt{2\pi}\sigma}\text{exp}\Bigl ( -\frac{(x-\mu)^2}{2\sigma^2}\Bigr)$$ распределения вероятностей случайной величины $X$ при $x=X$ достигает максимума в точке $μ=X$ (это свойство выражает точное содержание распространённого в теории ошибок утверждения «оценка $X$, вычисленная согласно Н. к. м., – наиболее вероятное значение неизвестного параметра $μ$»). Ниже рассматривается только случай одного неизвестного.
Пусть для оценки значения неизвестной величины $μ$ произведено $n$ независимых наблюдений, давших результаты $Y_1, Y_2, ..., Y_n$, т. е. $Y_1=μ+d_1, Y_2=μ+d_2, ..., Yn=μ+d_n$, где $d_1, d_2, ..., d_n$ – случайные ошибки (по определению, принятому в классич. теории ошибок, случайные ошибки – независимые случайные величины с нулевым математич. ожиданием, т. е. $\mathsf{Е}δ_i=0$; если же $\mathsf{Е}δ_i≠0$, то $\mathsf{Е}δ_i$ называются систематич. ошибками). Согласно Н. к. м., в качестве оценки величины $μ$ принимают такое $X$, для которого будет наименьшей сумма квадратов (отсюда назв. метода)$$S(X)=\sum\limits_{i=1}^np_i(Y_i-X)^2,$$ где $p_i=k/σ_i^2$ и $σ_i^2=\mathsf{D}δ_i=\mathsf{Е}δ_i^2$ (коэф. $k{>}0$ можно выбирать произвольно). Величину $p_i$ называют весом, a $σ_i$ – квадратичным отклонением измерения с номером $i$. В частности, если все измерения равноточны, то $σ_1=σ_2=...=σ_n$, и в этом случае можно положить $p_1=p_2=...=p_n=1$; если же каждое $Y_i$ – арифметич. среднее из $n_i$ равноточных измерений, то полагают $p_i=n_i$.
Сумма $S(X)$ будет наименьшей, если в качестве $X$ выбрать взвешенное среднее: $$X=\overline{Y}=\frac1P\sum p_iY_i,$$
где $P=\sum p_i$. Оценка $\overline Y$ величины $μ$ лишена систематич. ошибки, имеет вес $P$ и дисперсию $\mathsf{D}\overline Y=k/P$. В частности, если все измерения равноточны, то $\overline Y$ – арифметич. среднее результатов измерений, т. е. $$\overline Y=\frac1n\sum Y_i$$
и $\mathsf D \overline Y=σ^2/n$. При некоторых общих предположениях можно показать, что если количество наблюдений $n$ достаточно велико, то распределение оценки $\overline Y$ мало отличается от нормального с математич. ожиданием $μ$ и дисперсией $k/P$. В этом случае абсолютная погрешность приближённого равенства $\mu \approx \overline Y$ меньше с вероятностью, близкой к значению интеграла$$I(t)=\frac2{\sqrt{2\pi}}\int\limits_0^1e^{-u^2/2}du \qquad (1)$$ [напр., $I$(1,96)=0,950; $I$(2,58)=0,990; $I$(3,00)=0,997].
Если веса измерений $p_i$ заданы, а множитель $k$ до наблюдений остаётся неопределённым, то этот множитель и дисперсия оценки $\overline Y$ могут быть приближённо оценены по формулам: $k≈S(\overline Y)/(n-1)$ и $\mathsf D \overline Y =k/P≈s^2=S(\overline Y)/[(n-1)P]$ (обе оценки лишены систематич. ошибок).
В том практически важном случае, когда ошибки $δ_i$ подчиняются нормальному распределению, можно найти точное значение вероятности, с которой абсолютная погрешность приближённого равенства $μ≈\overline Y$ окажется меньше $ts$ ($t$ – произвольное положительное число). Эту вероятность, как функцию от $t$, называют функцией распределения Стьюдента с $n-1$ степенями свободы и вычисляют по формуле $$I_{n-1}(t)=C_{n-1}\int\limits_0^1 \left ( 1+\frac{v^2}{n-1} \right )^{-n/2}dv, \qquad (2)$$ где постоянная $C_{n–1}$ выбрана таким образом, чтобы выполнялось условие $I_{n–1}(∞ )= 1$. При больших $n$ формулу (2) можно заменить формулой (1). Однако применение формулы (1) при небольших $n$ привело бы к грубым ошибкам. Так, напр., согласно (1), значению $I$= 0,99 соответствует $t$ = 2,58; истинные значения $t$, определяемые при малых $n$ как решения соответствующих уравнений $I_{n–1}(t)$=0,99, приведены в таблице:
$n$ | 2 | 3 | 4 | 5 | 10 | 20 |
$t$ | 63,66 | 9,92 | 5,84 | 4,60 | 3,25 | 2,86 |
Пример. Для определения массы некоторого тела произведено 10 независимых равноточных взвешиваний, давших результаты $Y_i$ (в г):
$Y_i$ | 18,41 | 18,42 | 18,43 | 18,44 | 18,45 | 18,46 |
$n_i$ | 1 | 3 | 3 | 1 | 1 | 1 |
(здесь $n_i$ – число случаев, в которых наблюдался вес $Y_i$, причём $n=Σn_i=10$). Т. к. все взвешивания равноточные, то следует положить $p_i=n_i$ и в качестве оценки для неизвестного веса $m$ выбрать величину $\overline Y=Σn_iY_i/Σn_i=18,431$. Задавая, напр., $I_9=0,95$, по таблицам распределения Стьюдента с девятью степенями свободы можно найти, что $t=2,262$, и поэтому в качестве предельной абсолютной погрешности приближённого равенства $μ≈18,431$ следует принять величину $ts=t\sqrt{Σn_i(Y_i-\overline Y)/90}=2,262\cdotp0,0048 = 0,011$. Т. о., $18,420{<}μ{<}18,442$.