【回归离差平方和】在统计学中,回归分析是一种重要的数据分析方法,用于研究变量之间的关系。在回归模型中,“回归离差平方和”是一个关键的统计量,用于衡量模型对数据的拟合程度。本文将对“回归离差平方和”的概念、计算方式及其意义进行总结,并通过表格形式加以说明。
一、概念总结
回归离差平方和(SSR),全称为 回归平方和,是总离差平方和(SST)中由回归模型解释的部分。它表示的是因变量(Y)的变异中,可以被自变量(X)所解释的那一部分。换句话说,它是回归模型对数据变化的解释能力的度量。
- 总离差平方和(SST):所有观测值与均值之间的差异平方和。
- 残差平方和(SSE):观测值与预测值之间的差异平方和。
- 回归离差平方和(SSR):SST - SSE,即模型能够解释的变异部分。
公式如下:
$$
SSR = \sum (\hat{y}_i - \overline{y})^2
$$
其中:
- $\hat{y}_i$ 是第 $i$ 个观测值的预测值;
- $\overline{y}$ 是因变量的平均值。
二、作用与意义
1. 衡量模型拟合效果:SSR 越大,说明模型对数据的解释力越强。
2. 用于计算决定系数(R²):R² = SSR / SST,表示模型解释的变异比例。
3. 评估变量间的关系:SSR 的大小反映了自变量对因变量的影响程度。
三、示例说明
以下是一个简单的数据集,展示如何计算回归离差平方和:
观测序号 | X(自变量) | Y(因变量) | 预测值 $\hat{y}$ | $(\hat{y} - \overline{y})^2$ |
1 | 1 | 2 | 2.5 | 0.25 |
2 | 2 | 4 | 3.5 | 1.25 |
3 | 3 | 6 | 4.5 | 2.25 |
4 | 4 | 8 | 5.5 | 3.25 |
5 | 5 | 10 | 6.5 | 4.25 |
- $\overline{y} = 6$
- SSR = 0.25 + 1.25 + 2.25 + 3.25 + 4.25 = 11.25
四、表格总结
概念名称 | 定义 | 公式 | 作用 |
总离差平方和 | 所有观测值与均值的平方差之和 | $SST = \sum (y_i - \overline{y})^2$ | 表示数据整体的变异程度 |
残差平方和 | 观测值与预测值的平方差之和 | $SSE = \sum (y_i - \hat{y}_i)^2$ | 表示模型未能解释的变异部分 |
回归离差平方和 | 模型能够解释的变异部分,等于 SST - SSE | $SSR = SST - SSE$ | 衡量模型对数据的解释能力 |
决定系数 | SSR 占 SST 的比例,反映模型的拟合优度 | $R^2 = \frac{SSR}{SST}$ | 用于评价模型的解释能力 |
五、结语
回归离差平方和是回归分析中的核心指标之一,它不仅有助于理解模型的拟合效果,还能为后续的模型选择和优化提供依据。在实际应用中,结合其他统计量如 R² 和 F 检验,可以更全面地评估模型的表现。