在回归分析 当中,最常用的估计
β
{\displaystyle \beta }
(回归系数 )的方法是普通最小二乘法 (英語:ordinary least squares ,簡稱OLS),它基於誤差值之上。用這種方法估计
β
{\displaystyle \beta }
,首先要計算残差平方和 (residual sum of squares ;RSS),RSS是指将所有误差值 的平方 加起來得出的数:
R
S
S
=
∑
i
=
1
n
e
i
2
{\displaystyle RSS=\sum _{i=1}^{n}e_{i}^{2}\,}
β
0
{\displaystyle \beta _{0}}
與
β
1
{\displaystyle \beta _{1}}
的数值可以用以下算式计算出來:
β
^
1
=
∑
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
∑
(
x
i
−
x
¯
)
2
{\displaystyle {\widehat {\beta }}_{1}={\frac {\sum (x_{i}-{\bar {x}})(y_{i}-{\bar {y}})}{\sum (x_{i}-{\bar {x}})^{2}}}}
β
^
0
=
y
¯
−
β
^
1
x
¯
{\displaystyle {\widehat {\beta }}_{0}={\bar {y}}-{\widehat {\beta }}_{1}{\bar {x}}}
当中
x
¯
{\displaystyle {\bar {x}}}
為
x
{\displaystyle x}
的平均值,而
y
¯
{\displaystyle {\bar {y}}}
為
y
{\displaystyle y}
的平均值。
假设总体的误差值有一个固定的變異數 ,這个變異數可以用以下算式估计:
σ
^
ε
2
=
R
S
S
n
−
2
.
{\displaystyle {\hat {\sigma }}_{\varepsilon }^{2}={\frac {RSS}{n-2}}.\,}
這個数就是均方误差 (mean square error),這個分母是样本大小减去模型要估计的参数的量。這個回归模型当中有两个未知的参数(
β
0
{\displaystyle \beta _{0}}
與
β
1
{\displaystyle \beta _{1}}
)。[ 1]
而這些参数估计的标准误差 (standard error)為:
σ
^
β
1
=
σ
^
ε
1
∑
(
x
i
−
x
¯
)
2
{\displaystyle {\hat {\sigma }}_{\beta _{1}}={\hat {\sigma }}_{\varepsilon }{\sqrt {\frac {1}{\sum (x_{i}-{\bar {x}})^{2}}}}}
σ
^
β
0
=
σ
^
ε
1
n
+
x
¯
2
∑
(
x
i
−
x
¯
)
2
=
σ
^
β
1
∑
x
i
2
n
{\displaystyle {\hat {\sigma }}_{\beta _{0}}={\hat {\sigma }}_{\varepsilon }{\sqrt {{\frac {1}{n}}+{\frac {{\bar {x}}^{2}}{\sum (x_{i}-{\bar {x}})^{2}}}}}={\hat {\sigma }}_{\beta _{1}}{\sqrt {\frac {\sum x_{i}^{2}}{n}}}}
有了上面這个模型,研究者手上就有会有
β
0
{\displaystyle \beta _{0}}
與
β
1
{\displaystyle \beta _{1}}
的估计值,就可以用這個算式來预测
Y
{\displaystyle Y}
的数值。
參見
參考資料
^ Steel, R.G.D, and Torrie, J. H., Principles and Procedures of Statistics with Special Reference to the Biological Sciences. , McGraw Hill, 1960, page 288.