
在经典线性回归模型中,影响的估计精度的因素有()A.A B.B C.C D.D E.E
经典线性回归模型中,影响估计精度的核心因素可通过参数估计方差公式 系统分析。该公式揭示了三大关键变量:误差方差 、自变量样本波动 和多重共线性程度 ,这些因素共同决定估计量的稳定性。
误差方差代表模型无法解释的“噪音”水平。 越大,参数估计的方差随之增大,导致估计精度下降。例如,当因变量受未观测因素强烈干扰时,即使自变量关系明确,系数估计仍会因噪音过大而不稳定。虽然扩大样本量无法直接减小 (这是总体特征),但通过引入更多相关解释变量可部分降低误差方差。
反映自变量的总变异程度。样本波动越大( 越大),估计方差越小,精度越高。例如,在研究收入对消费的影响时,若样本收入数据覆盖月薪3000元至30000元的群体(高波动),比仅包含8000-10000元的样本(低波动)能更精确估计边际消费倾向。当 时,自变量近乎常数,会导致估计方差趋于无穷大,违背高斯-马尔科夫假定。
\(R_j^2\) 是自变量 \(X_j\) 对其他自变量回归的拟合优度,衡量解释变量间的线性相关性。当 \(R_j^2 \approx 1\) 时,变量间存在高度共线性,公式分母趋近于0,估计方差急剧增大。例如,在回归模型中同时引入“家庭总收入”和“工资收入”,两者高度相关会导致系数估计不稳定,甚至符号与理论预期相反。这种情况下,尽管模型整体拟合优度可能较高,但单个参数的统计显著性会严重受损。
样本容量通过影响 \(SST_j\) 和 \(R_j^2\) 间接作用于精度。增大样本量通常能提高 \(SST_j\)(除非数据存在系统性限制),并可能缓解多重共线性的影响。此外,异常值和测量误差会扭曲自变量波动或增大误差方差,降低估计可靠性。例如,极端观测值会通过杠杆值 \(h_{ii}\) 影响残差分布,导致方差估计偏差[7]。
违反经典假设会直接影响精度。异方差性(\(\text{Var}(\varepsilon_i) \neq \sigma^2\))使OLS估计量失去有效性,方差增大[5];自相关会导致标准误低估,进而误导显著性检验。例如,时间序列数据若存在正自相关,OLS估计的标准误会偏小,使t统计量虚高,可能错误拒绝原假设。
这些因素相互交织:高多重共线性可能掩盖自变量的真实波动,而大样本量有时能部分抵消共线性的负面影响。实际应用中,需通过方差膨胀因子(VIF)检测共线性、残差图诊断异方差,并结合理论选择变量,以平衡模型复杂度与估计精度。