简单线性回归模型的七个假定
一元线性回归常数项的解释?
一元线性回归常数项的解释?
一言以蔽之,在计量经济学的线性回归模型中,常数项在很多情况下并无实际的解释意义。
要论含义,常数项的数学含义是,平均来讲,当所有解释变量的值为0的时候,被解释变量的值是几但是在计量经济学的实证模型中,这通常是无意义的,原因很简单,因为在很多时候,解释变量的定义域并不一定包括0,比如人的身高、体重等等。可是,即便所有的解释变量都可以同时取0,常数项依然是基本无意义的。我们回到线性回归的本质上来讲的话,所有参数的确定都为了一个目的:让残差项的均值为0,而且残差项的平方和最小。所以,想象一下,当其他的参数都确定了以后,常数项的变化在图像上表现出来的就是拟合曲线的上下整体浮动,当曲线浮动到某一位置,使得在该位置上,残差项的均值为0,曲线与y轴所确定的截距即为常数项。因此,可以理解为常数项是对其他各个解释变量所留下的偏误(bias)的线性修正。但是要说常数项具体的值所代表的解释意义,在通常情况下是无意义的。
关于F检验值的问题?
F大概接近200,相伴概率几乎为0,已经足够说明y与这三个变量总体上的线性回归关系很显著了。
因为我们做假设检验时,通常选择显著性水平α 0.05或者0.01,如果是查F统计量表,会得到一个临界值,只要计算所得的F值大于那个临界值,就说明总体线性关系显著。此处,你的模型F值接近200,非常大了,所以其相伴概率当然很小(几乎为0),关于这个F检验,你可以再看看概率统计书复习一下。
调整的判定系数?
判定系数(coefficient ofdetermination),也叫可决系数或决定系数,是指在线性回归中,回归平方和与总离差平方和之比值,其数值等于相关系数的平方。它是对估计的回归方程拟合优度的度量。为说明它的含义,需要对因变量y取值的变差进行研究。判定系数(coefficient ofdetermination,记为或)在统计学中用于度量因变量的变异中可由自变量解释部分所占的比例,以此来判断统计模型的解释力。
对于简单线性回归而言,判定系数为样本相关系数的平方。当加入其他回归自变量后,决定系数相应地变为多重相关系数的平方。
假设一数据集包括共n个观察值,相对应的模型预测值分别为。定义残差,平均观察值为
于是可以得到总平方和
回归平方和
残差平方和
由此,判定系数可定义为
1.判定系数
说明:判定系数,该统计量越接近于1,模型的拟合优度越高。