出典: フリー百科事典『ウィキペディア(Wikipedia)』
統計学 において、残差平方和 (ざんさへいほうわ、英 : residual sum of squares, RSS )は、残差 の平方(二乗)の和 である。残差二乗和、SSR(sum of squared residuals)やSSE(sum of squared errors of prediction)とも呼ばれる。残差平方和はデータと推定モデルとの差異を評価している尺度である。小さいRSSの値はデータに対してモデルがぴったりとフィットしていること示している。
一般的に、平方和の分解 (英語版 )
(全平方和 (英語版 ) ) = (回帰平方和 (英語版 ) ) + (残差平方和)
が成り立つ[ 1] 。
単一の説明変数を持つモデルでは、RSSは以下の式で与えられる。
R
S
S
=
∑
i
=
1
n
(
y
i
−
f
(
x
i
)
)
2
{\displaystyle \mathrm {RSS} =\sum _{i=1}^{n}(y_{i}-f(x_{i}))^{2}}
この時 y i は i 番目の変数の値、x i は i 番目の説明変数の値、
f
(
x
i
)
{\displaystyle f(x_{i})}
(
y
i
^
{\displaystyle {\hat {y_{i}}}}
とも)はy i の予測値である。標準線形単純回帰モデル では、
y
i
=
a
+
b
x
i
+
ε
i
{\displaystyle y_{i}=a+bx_{i}+\varepsilon _{i}\,}
(a および b は係数 、y および x はそれぞれ従属変数 および独立変数 、εは誤差項)である。残差平方和は εi の推定量 の平方の和であり以下の式で表わされる。
R
S
S
=
∑
i
=
1
n
ε
i
2
=
∑
i
=
1
n
(
y
i
−
(
α
+
β
x
i
)
)
2
,
{\displaystyle \mathrm {RSS} =\sum _{i=1}^{n}\varepsilon _{i}^{2}=\sum _{i=1}^{n}(y_{i}-(\alpha +\beta x_{i}))^{2},}
この時、α は定数項
a
{\displaystyle a}
の推定値、β は回帰係数 b の推定値である。