回归初步
本章概览
两个变量能够建立完美的线性关系的情况在心理学的研究情境中是极其罕见的。只能通过统计方法,建立与数据最佳拟合的直线,达到描述和预测的目的。在本章中,我们将利用最小平方法求得最佳拟合直线,并建立起回归方程。
学习要点
- 理解什么是回归
- 学会建立回归方程的计算方法
- 学习考查回归方程准确性的方法
- 了解如何解释回归方程
- 了解一元线性回归的统计前提
回归方程
对一个线性方程 (linear equations),有
回归表达形式
对于简单线性回归 (Simple Linear Regression) ,有
回归方程的计算
考察每个点, 比较
与实际数据点的距离平方和最小的直线就是最佳拟合线,这种确定最佳拟合线的方法就被称为最小平方法 (least-squares solution) 。
此处不详细给出最小二乘法 (ordinary least squares, OLS) 的推导过程,仅给出推导结果如下所示:
其中,
对于斜率
其中
回归方程不能对
值范围之外的数据作出预测。
回归估计的标准误
- 回归方程允许我们作出预测,但未给出预测准确性的信息。
- 估计的标准误给出了回归线与数据点之间标准距离的量度。
- 回归估计的标准误在概念上类似标准差。
计算回归估计的标准误
- 首先计算误差和方
- 将误差的和方除以自由度
得到误差的方差或称误差的均方。 - 将误差的方差取平方根得到标准误:
标准误和相关系数之间的关系
相关系数与误差的和方之间的关系可以用公式
一元线性回归的假设检验
F 检验
回归模型建立后就要考察自变量是否能够显著预测因变量。如果自变量
| 回归 | 1 | |||
| 残差 | ||||
| 总和 |
路径系数的假设检验
回归分析的前提假设是正态分布,所以截距项服从均值为
路径系数的假设检验包括截距项的假设检验和自变量的路径系数的假设检验。二者的虚无假设都是
截距项
假设检验
路径系数
假设检验
芷沐沐