1、第十一章 线性相关分析与线性回归分析11.1 两个变量之间的线性相关分析相关分析是在分析两个变量之间关系的密切程度时常用的统计分析方法。最简单的相关分析是线性相关分析,即两个变量之间是一种直线相关的关系。相关分析的方法有很多,根据变量的测量层次不同,可以选择不同的相关分析方法。总的来说,变量之间的线性相关关系分为三种。一是正相关,即两个变量的变化方向一致。二是负相关,即两个变量的变化方向相反。三是无相关,即两个变量的变化趋势没有明显的依存关系。两个变量之间的相关程度一般用相关系数r 来表示。r 的取值范围是:-1r1。r越接近1,说明两个变量之间的相关性越强。r越接近0,说明两个变量之间的相关
2、性越弱。相关分析可以通过下述过程来实现:11.1.1 两个变量之间的线性相关分析过程1打开双变量相关分析对话框执行下述操作:AnalyzeCorrelate(相关)Bivariate(双变量)打开双变量相关分析对话框,如图11-1 所示。图11-1 双变量相关分析对话框2选择进行相关分析的变量从左侧的源变量窗口中选择两个要进行相关分析的变量进入Variable 窗口。3选择相关系数。Correlation Coefficient 是相关系数的选项栏。栏中提供了三个相关系数的选项:(1)Pearson:皮尔逊相关,即积差相关系数。适用于两个变量都为定距以上变量,且两个变量都服从正态分布的情况。这
3、是系统默认的选项。(2)Kendall:肯德尔相关系数。它表示的是等级相关,适用于两个变量都为定序变量的情况。(3)Spearman:斯皮尔曼等级相关。它表示的也是等级相关,也适用于两个变量都为定序变量的情况。4确定显著性检验的类型。Test of Significance 是显著性检验类型的选项栏,栏中包括两个选项:(1)Two-tailed:双尾检验。这是系统默认的选项。(2)One-tailed:单尾检验。5确定是否输出相关系数的显著性水平Flag significant Correlations:是标出相关系数的显著性选项。如果选中此项,系统在输出结果时,在相关系数的右上方使用“*”表
4、示显著性水平为0.05;用“*” 表示显著性水平为0.01。6. 选择输出的统计量单击Options 打开对话框,如图11-2 所示。图11-2 相关分析选项对话框(1)Statistics 是输出统计量的选项栏。1)Means and standard deviations 是均值与标准差选项。选择此项,系统将在输出文件中输出均值与标准差。2)Cross- product deviations and covariances 是叉积离差与协方差选项。选择此项,系统将在输出文件中输出每个变量的离差平方和与两个变量的协方差。上述两项选择只有在主对话框中选择了Pearson:皮尔逊相关后,计算结果
5、才有价值。(2)缺失值的处理办法Missing Valuess 是处理缺失值的选项栏。1)Exclude cases pairwise 是成对剔除参与相关系数计算的两个变量中有缺失值的个案。2)Exclude cases listwise 是剔除带有缺失值的所有个案。上述选项做完以后,单击Continue 按钮,返回双变量相关分析对话框。8单击OK 按钮,提交运行。系统在输出文件窗口中输出相关分析的结果。11.1.2 两个变量之间的线性相关分析实例分析实例:在“休闲调查1”中,对被调查者的“住房面积”和“家月收入”作相关分析打开数据文件“休闲调查1”后,执行下述操作:1AnalyzeCorre
6、lateBivariate 打开双变量相关分析对话框。2从左侧的源变量中选择“住房面积”和“家月收入”进入Variable 窗口。其它选项采用系统默认状态。3单击Options 按钮,打开对话框。选择Means and standard deviations 选项和Cross- product deviations and covariances 选项。单击Continue 按钮,返回双变量相关分析对话框。4单击OK 按钮,提交运行。可以在输出文件中看到相关分析的结果如表11-1、表11-2 所示表11-1 变量的描述统计表11-2相关分析表由于在选项中选择了Means and standar
7、d deviations选项。所以在输出文件中出现了表11-1,表中的内容就是两个变量的平均值、标准差和个案数。表11-2是以交叉表的形式表现的相关分析的结果。下面将表的内容作如下解释:Pearson Correlation是皮尔逊相关系数。在它右侧“住房使用面积”一列中对应的数据为1.000,这是“住房使用面积”与“住房使用面积”的相关系数。由于使用同一个变量计算相关,数据完全一一对应,所以计算的相关系数为1。在“家月收入”下面对应的数据为0.393,这是“住房使用面积”与“家月收入”的皮尔逊相关系数。Sig. (2-tailed)是双端检验的显著性水平。可以看出,相关系数0.393 的显著
8、性水平为0.000,表明总体中两个变量的相关是显著的。0.393 的“*”和表下面的英文说明Correlation is significant at the 0.05 level (2-tailed) (相关系数在0.01 的水平上显著)即说明了这一点。Sum of Squares and Cross-products 是离差平方和与叉积和。如果以“家月收入”为X 变量,“住房使用面积”为Y 变量的话,离差平方和是指或 。差积和是指(x x)(y y)。表11-2 中“家月收入”一列下面所对应的94462797 是“家月收入”变量的离差平方和。而879447.51 则是差积和。Covaria
9、nce 是协方差。表11-2 中“家月收入”一列下面所对应的3118.608 是“家月收入”的方差。“住房使用面积”一列下面所对应的187.904 是“家月收入”变量与“住房使用面积”变量的协方差。从输出的情况来看,“住房面积”和“家月收入”呈正相关,其相关系数为0.393,在总体中这个相关系数在0.01 的水平上是显著的。11.2 线性回归分析 回归分析是用确定性的方法来研究变量之间的非确定性关系的最重要的方法之一。非确定性关系是指变量在变化过程中表现出来的数量上具有一定的依存性,但并非象函数关系那样一一对应的关系。如果把其中的一个或几个变量作为自变量,把另一个随着自变量的变化而变化的变量作
10、为因变量,通过建立线性关系的数学模型来研究它们之间的非确定性的关系的方法就是回归分析的方法。由于回归分析中表现的是自变量和因变量之间的关系,所以这种方法也多用于研究因果关系的数量表现。在SPSS 中的回归分析方法有七种,本节只介绍最简单、最常用的线性回归分析。回归分析在Analyze 的下拉菜单中,如图11-3 所示。图11-3 回归分析的指令菜单图中的主菜单中Regression 是回归,二级菜单中的Linear 是线性。11.2.1 一元线性回归11.2.1.1 一元线性回归的原理1一元线性回归方程一元线性回归也就是直线回归。适用于对两个定距以上变量之间关系的分析。是通过给一定数量的样本观
11、测值拟合一条直线 ,来研究变量之间关系的方法。这条直线也叫回归直线或回归方程。求回归方程的过程就是利用观测值求出方程中的回归直线中的a、b 两个系数。一般采用最小二乘法。a 是回归直线的截距,b 是回归直线的斜率,也称为回归系数。2回归方程的假定条件有了回归直线,每一个样本观测值都可以表示为 yi = a + bxi +i 。(i=1,2n)i 称为随机误差项。用回归方程来表示变量之间的关系需要满足一定的假定条件。这些假定条件是:(1) 正态性假定。即随机误差项i 服从正态分布。(2) 零均值假定。i 的均值为零,即E(i)=0。(3) 同方差假定。i 分布的方差相等。(4) 独立性假定。i
12、是相互独立的随机变量。(5) 无系列相关假定。i 的变化与xi 的变化无相关上述的假定条件中有一个不满足,回归方程都是没有价值的。由于上述的假定都是对总体而言的,而总体的情况又属于未知。因此在建立回归方程后应该用样本观测值对上述假定进行检验。3.回归方程的显著性检验由于回归方程是用样本观测值建立的,用它来描述总体情况时,需要进行假设检验。(1)回归系数的显著性检验1)对回归系数b 的检验:检验的原假设是b=0,检验的方法是T 检验。2)对截距a 的检验:检验的原假设是a=0,检验的方法是T 检验。(2)对回归直线拟合优度的检验采用最小二乘法可以给任何一组数据配合一条直线。但只有两个变量之间的相
13、关较强时,用回归直线来描述它们之间的关系才有意义。回归直线拟合优度检验的指标是判定系数R2。R2=r2,即相关系数的平方。它说明因变量的变化中有多少是由自变量的变化引起的。如R2=0.65,则说明,因变量的变化中的65%是由自变量的变化引起的。R2越接近1,说明拟合优度越好。R2=0,说明自变量与因变量没有任何关系,配合回归直线没有价值。(3)对回归直线意义的检验对一组数据配合回归直线是否有意义,可以通过方差分析和F 检验的方法来确定。把某一样本观测值到回归直线的距离的平方和定义为残差平方和。它反映了除自变量以外的其它因素对因变量的影响。把回归直线到总平均值之间的距离的平方和定义为回归平方和。
14、它反映了自变量对因变量的影响。如果回归平方和很大而残差平方和很小,说明自变量对因变量的解释能力很大,则配合回归直线有意义。反之则说明配合回归直线没有意义。将两个平方和分别除以各自的自由度,就得到了平均回归平方和及平均残差平方和。统计量F=平均回归平方和/平均残差平方和。F 值过小,达不到显著性水平,说明自变量对因变量的解释力度很差,配合回归直线没有意义。(4)残差的独立性检验残差的独立性检验也称系列相关检验。如果随机误差项不独立,那么对回归模型的任何估计与假设所做出的结论都是不可靠的。残差的独立性检验是通过Durbin-Watson 检验来完成的。Durbin-Watson 检验的参数用D 表
15、示。D 的取值范围是0D4。当残差与自变量相互独立时,D2。当相邻两点的残差正相关时,D2。当相邻两点的残差负相关时,D2。其它如随机误差项的零均值,同方差,独立性的检验可根据残差散点图来进行。将在后面的输出文件中介绍。11.2.1.2 一元线性回归的分析过程1打开回归分析对话框执行下述操作:AnalyzeRegressionLinear 打开对话框,如图11-4所示。由于回归分析的选项很多,本节只介绍与一元线性回归模型的建立及各种检验有关的选项。图11-4 回归分析对话框2选择回归分析的因变量与自变量从左侧源变量窗口中选择一个变量作为因变量进入Dependent(s)窗口。再选择一个变量作为
16、自变量进入Independent窗口。3确定回归分析结果的输出内容单击Statistics按钮,打开对话框,如图11-5所示。图11-5 回归分析统计量输出对话框该对话框包括三部分。(1)Regression Coefficients是回归系数选项栏。该栏中包括三项内容。与一元回归有关的选项是:1)Estimates是输出估计值的选项。若选择此项,则在输出文件中输出回归系数B、B的标准误、标准化回归系数beta、B的T检验值以及T值的双侧检验的显著性水平Sig。这是系统默认选项。2)Confidence intervals是输出回归系数置信区间的选项。选择此项后,系统将在输出文件中输出回归系数
17、95%的置信区间。(2)在对话框中右上方的五个选项中。与一元回归有关的选项是:1)Model fit是模型的配置选项。选择此项后,系统将在输出文件中输出引入模型或从模型中剔除的变量,提供复相关系数R、及调整的R2,估计值的标准误,方差分析表。这是系统的默认选项。2)Descriptives是输出描述统计结果的选项。选择此项后,系统将输出所有变量的个案数、均值、标准差和相关系数矩阵及单侧检验的显著性水平矩阵。(3)Residuals是残差选项栏。该栏包括两项内容。1)Durbin-Watson是系列相关检验选项,选择该项后系统将在模型概要中输出Durbin-Watson的值。2)Casewise
18、 diagnostics是输出个案诊断表的选项。上述选项作完以后,单击Continue 按钮,返回回归分析对话框。4选择输出的图形单击Plots按钮,打开图形选择对话框,如图11-6所示。系统默认状态是不输出图形的。但图形对检验残差的正态性,等方差性,奇异值等是非常有帮助的。做图过程为:图11-6 图形选择对话框(1)选择坐标轴变量可以从左侧的源变量窗口中选择两个变量分别进入右侧的X窗口和Y窗口。做了这项选择以后,系统将输出以这两个变量为坐标的散点图。如果要输出多个散点图,可单击Next按钮,在Y和X窗口中再输入另外两个变量。原变量窗口中的七个变量分别为:1)DEPENDNT是因变量。2)ZP
19、RED是标准化预测值。3)ZRESID 标准化残差。4)DRESID 是剔除残差。5)ADJPRED调整的预测值。6)SRESID学生化残差。7)SDRESID是学生化剔除残差。(2)确定图形类别Standardized Residual Plots(标准化残差图)图形类别的选项栏。其中包括两个选项。1)Histogram是输出带有正态曲线的标准化残差的直方图。2)Normal probability plot输出残差的正态概率图。上述选项作完以后,单击Continue 按钮,返回回归分析对话框。5确定保存变量单击Save按钮,打开保存变量对话框,如图11-7所示。图11-7保存变量对话框该对
20、话框中有较多的选项,系统将把被选择的分析结果作为新变量保存到数据窗口中。下面只介绍最常用的两个:(1)Unstandardized是保存非标准化预测值。(2)Standardized是保存标准化预测值。上述选项作完以后,单击Continue 按钮,返回回归分析对话框。6单击OK按钮,提交运行。系统在输出文件窗口中输出回归分析的结果11. 2. 1.3 一元线性回归的实例分析实例:在“休闲调查”中以“住房面积” 为因变量,以“家月收入”为自变量进行回归分析。打开数据文件“休闲调查”后,执行下述操作:1AnalyzeRegressionLinear 打开图11-4 所示的回归分析对话框。2从左侧源
21、变量窗口中选择“住房面积”作为因变量进入Dependent(s)窗口。再选择 “家月收入”作为自变量进入Independent窗口。3单击Statistics按钮,打开如图11-5所示的统计量输出对话框。选择Durbin-Watson选项。单击Continue 按钮,返回回归分析对话框。4单击Plots按钮,打开如图11-6所示的图形选择对话框。从左侧的源变量窗口中选择ZPRED(标准化预测值)进入X窗口,选择ZRESID(标准化残差)进入Y窗口。选择Histogram选项。单击Continue 按钮,返回回归分析对话框。5单击Save按钮,打开如图11-5所示的保存变量对话框。选择Unsta
22、ndardized选项。单击Continue 按钮,返回回归分析对话框。a) 单击OK 按钮,提交运行。可以在输出文件中看到一元回归分析的结果如表11-3、表11-4、表11-5、表11-6、表11-7 和图11-8、图11-9所示表11-3 进入或剔除模型的变量Variables Entered/Removed bModelVariablesEnteredVariablesRemovedMethod1家月收入a.Entera. All requested variables entered.b. Dependent Variable: 住房使用面积表11-3表明。只有一个自变量“家月收入”
23、进入了模型。这个输出结果对多元回归分析是非常有价值的。表11-4 回归模型的概要表Model Summary bModelR R SquareAdjusted RSquareStd. Error ofthe Estimate Durbin-Watson1.393a.155.15212.62671.500a. Predictors: (Constant), 家月收入b. Dependent Variable: 住房使用面积表11-4的内容是回归模型的概要。“家月收入”与“住房面积”的相关系数R为0.393,模型的判定系数R Square即R2为0.155,由于R2受个案数的影响较大,根据个案数对
24、其进行调整以后的值为Adjusted R Square,它能更好地说明模型的拟合优度。该模型中的Adjusted R Square为0.152,说明自变量对因变量的影响不是太大,因变量的变差中只有15.2%是由自变量引起的。Durbin-Watson的值是1.5,因为比较接近2,所以认为随机误差项基本上相互独立的,不存在序列相关的问题。表11-5 方差分析表 表11-5的内容是对模型的方差分析与F检验的结果。从表中可以看出,平均的回归平方和(Regression Mean Square)为8187.646,平均的剩余平方和(Residual Mean Square)为159.435。F值为51
25、354,显著性水平为0.000。由于显著性已经达到0.001的水平,说明配合回归直线是有意义的。表11-6 回归系数表11-6的内容是回归方程的参数及检验结果。从表中可以看出,回归方程的常数项即截距为28.438,截距的标准误差为1.582。T检验值为17.976,显著性水平为0.000。回归方程的斜率即回归系数为0.009,回归系数的标准误差为0.001,标准化回归系数为0.393,T检验值为7.166,显著性水平为0.000。可以在0.001的水平上说明这个斜率对总体是有意义的。表11-7 残差统计表表11-7中的Predicted Values是预测值,Residual是残差。Std.
26、 Predicted Values是标准化预测值。Std. Residual是标准化残差。从表中可以看出,残差的平均值为0。标准化残差的平均值为0。说明残差的分布满足均值为零的假设。图11-8标准化残差的直方图从图11-8中可以看出,残差的分布基本呈正态。图11-9残差分布的散点图图11-9是以标准化预测值为横轴,以标准化残差为纵轴绘制的散点图。可以用于检验等方差性和奇异值的情况。如果残差分布具有等方差性,则图中的散点应该在由原点发出的横线上下的确定的范围内分布。从图中可以看出,残差的分布基本满足等方差性的要求。还可以在“休闲调查1” 的数据窗口中看到在数据文件中又增加了一个变量Pre_1,如
27、图11-10所示。这个Pre_1便是由回归方程计算出的预测值。图11-10 以标准化预测值为新变量的统计结果11.2.2 多元线性回归11.2.2.1 多元线性回归的过程多元线性回归是研究多个变量之间因果关系的最常用的的方法之一。在多个变量中有一个是因变量。因变量应该是定距以上的变量。其它的变量是自变量。自变量的个数应在两个或两个以上,但每个自变量与因变量之间的关系都是线性的。由于任何一个社会现象的变化都可能是由多个因素引起的,因此多元回归在解释一果多因的变量之间的关系时显得特别有效。由于回归分析的选项较多,而且适用于一元回归的选项均适用于多元回归。在一元回归的输出文件中的内容在多元回归中也都
28、输出。所以在介绍多元线性回归的实现过程及输出结果的解释中重复的部分不再介绍。多元线性回归的实现过程如下:1打开回归分析对话框执行下述操作:AnalyzeRegressionLinear 打开如图11-11所示的对话框。 这是一个与图11-4完全相同的对话框。图11-11 回归分析对话框2选择回归分析的因变量与自变量从左侧源变量窗口中选择一个变量作为因变量进入Dependent(s)窗口。再选择多个自变量进入Independent 窗口。3确定自变量的挑选方法Method 是回归分析中自变量的挑选方法的选择窗口。由于人为选定的自变量未必是对因变量有较大影响的变量。系统要根据自变量对因变量作用的大
29、小,从选定的自变量中筛选出一部分自变量作为回归模型中的自变量。最终保留在模型中的自变量应该是对因变量的变化贡献较大的变量。在Method 窗口中有五个选项。本节只介绍Enter、Backward 和Stepwise三个较常用的选项。(1)Enter 是强行进入法选项。即所有选择的自变量全部进入回归模型。这是系统默认的选项。可根据各个自变量的回归数T 检验的值是否达到了显著性水平来确定那些自变量应进入模型。(2)Backward 向后剔除法选项。先将全部所选变量进入模型,每次剔除一个使方差分析的F 值最小且T 检验达不到显著性水平的变量,直到回归某型中不再含有达不到显著性水平的自变量为止。(3)
30、Stepwise 逐步进入法选项。首先根据方差分析的结果选择对因变量贡献最大的自变量进入方程。每加入一个自变量进行一次方差分析,如果有自变量使F 值最小且T 检验达不到显著性水平,则予以剔除。这样重复进行,直到回归方程中所有的自变量均符合进入模型的要求,而模型外的变量均不符合进入模型的要求为止。4确定输出的统计量单击Statistics 按钮,打开如图11-5所示的对话框。下面对该对话框中与多元回归分析有关的选项作如下介绍。图11-5 回归分析统计量输出对话框(1)Regression Coefficients 是回归系数选项栏。前两项在一元回归中均有介绍。Covariance matrix
31、是输出回归系数的协方差矩阵、各变量的相关系数矩阵。(2)在模型及拟合效果的选项中:1)R squared change是R2的变化。选择此项后,系统将输出回归方程引入或剔除一个自变量后R2的变化量。R2的变化量用Rch表示。Rch较大说明引入或剔除的自变量是一个对因变量影响较大的自变量。2)Part and patial correlation是相关系数选项。选择此项后,系统将输出回归方程的部分相关系数(表明当一个自变量进入方程后R2增加了多少)、偏相关系数(表明排出了其它的自变量对Y的影响后,某个自变量与Y的相关程度)和零阶相关系数(表明变量之间的简单相关系数)。3)Collinearity
32、 diagnostics 是共线性诊断选项。选择此项后,系统将输出各变量的容限度、方差膨胀因子和共线性诊断表。上述选项作完以后,单击Continue 按钮,返回回归分析对话框。5确定自变量引入模型或从模型中剔除的的标准及缺失值的处理方法单击Option按钮,打开选项对话框,如图11-12所示。图11-12选项对话框(1)确定判断标准Stepping Method Criteria是设置变量引入模型或从模型中剔除的判断标准栏。1)Use probability of F是以F的概率作为变量引入模型或从模型中剔除的判断标准。系统默认状态是,当一个变量的F值的显著性水平T Sig.0.05时,该变量
33、被引入回归方程。当一个变量的F值的显著性水平T Sig.0.1时,该变量被从模型中剔除。也可以根据需要通过在Entry窗口和Removal窗口输入数值的方法,自己设定这两个数值。2)Use F values是以F值作为变量引入模型或从模型中剔除的判断标准。系统默认状态是,当一个变量的F值3.84,该变量被引入回归方程。当一个变量的F值2.71时,该变量被从模型中剔除。也可以通过选择Use F values 选项,并在被激活的Entry窗口和Removeal窗口输入数值的方法,根据需要自己设定这两个数值。(2)Include constant in equation是在方程中包含常数项的选项。这
34、是系统默认选项。(3)Missing Valuess是缺失值的处理方法。1)Exclude cases listwise 剔除参与回归分析的任何变量中的缺失值。也就是分析中使用的个案在所有变量上都具有合法值。2) Exclude cases pairwise 是成对删除缺失值。3) Replace with mean 是用平均值代替缺失值。上述选项作完以后,单击Continue 按钮,返回回归分析对话框。6单击OK按钮,提交运行。系统在输出文件窗口中输出回归分析的结果 11.2.2.2多元线性回归的实例分析实例:在“贫困调查”中以“月支出” 为因变量,以“满意度2”、“年龄”、“住房面积”、“
35、月平均低保金”、“教育水平”为自变量进行多元回归分析。打开数据文件“贫困调查”后,执行下述操作:1AnalyzeRegressionLinear 打开图11-11 所示的回归分析对话框。2从左侧源变量窗口中选择“月支出”作为因变量进入Dependent(s)窗口。再选择“年龄”、“住房面积”、“低保金”、“教育水平”“满意度2”作为自变量进入Independent窗口。3在Method窗口中选择Backward选项。4单击Statistics按钮,打开如图11-5所示的统计量输出对话框。选择Durbin-Watson选项。选择Collinearity diagnostics选项。单击Conti
36、nue 按钮,返回回归分析对话框。5单击Plots按钮,打开如图11-6所示的图形选择对话框。从左侧的源变量窗口中选择ZPRED(标准化预测值)进入X窗口,选择ZRESID(标准化残差)进入Y窗口。选择Histogram选项。单击Continue 按钮,返回回归分析对话框。6单击Save按钮,打开如图11-5所示的保存变量对话框。选择Unstandardized选项。单击Continue 按钮,返回回归分析对话框。7单击OK 提交运行。可以在输出文件中看到多元回归分析的结果。下面主要介绍在一元回归分析结果中没有出现过的表格和图形。表11-9 变量的进入与剔除表由于在回归模型的建立方法中选择了向
37、后剔除法(Backward)。表11-6的内容说明系统一共建立了四个模型,第一个模型中包括了全部选定的自变量。在第二个模型中剔除了 “满意度2” 这个变量。在第三的模型中剔除了“低保金” 这个变量。在第四个的模型中剔除了“教育水平”。原因是这三个变量F值的概率均大于0.1。表11-10 多元回归模型的统计概要从表11-10中可以看出,包含了“年龄”、“住房面积”、“低保金”、“教育水平”、“满意度2”五个自变量的第一个模型的调整的判定系数Adjusted R Square为0.246。剔除了“满意度2”这个变量后,包含了“年龄”、“住房面积”、 “低保金”、“教育水平”四个自变量的第二个模型的
38、调整的判定系数Adjusted R Square为0.255。剔除了“满意度2”和“低保金”两个变量后,包含了“年龄”、“住房面积”和“教育水平”三个自变量的第三个模型的调整的判定系数Adjusted R Square为0.263。剔除了“满意度2”和“低保金” 和“教育水平”三个变量后,包含了“年龄”和“住房面积”两个自变量的第四个模型的调整的判定系数Adjusted R Square为0.251。由于剔除了“教育水平”以后,判定系数略微减小了,说明“教育水平”对因变量还多少有一点影响。但由于达不到显著性水平被从模型中剔除。表11-11 多元回归模型的方差分析表从表11-11中可以看出,每个
39、模型都达到了0.00的显著性水平。说明配合回归模型是有意义的。但随着无效变量被逐步剔除,F值愈来愈大。这说明只包含“年龄”和“住房面积”两个变量的模型的拟合优度是最好的。表11-12 多元回归模型的回归系数表表11-12中根据三个包含自变量数不同的模型,分别给出了回归系数、回归系数的标准误、标准化回归系数、T检验值、T检验值的显著性水平。从第一个包含了五个变量的模型的T检验值和显著性水平可以看出,“满意度2”、“低保金”和“教育水平”三个变量T检验值均达不到0.1的水平。根据向后剔除法,先剔除了显著性水平最差的“满意度2”这个变量。但从包含了四个变量的第二个模型中可以看出,剔除了“满意度2”后, “年龄”的显著性有所增加。但“低保金”和“教育水平”的显著性仍然达不到0.1的水平。因此它们也被从模型中逐步剔除了。随着无效变量被剔除,“年龄”变量的显著性水平越来越高。最后保留在模型中的两个有效变量是“年龄”和“住房面积”。