一般做回归的时候要求拟合优度(实际值与拟合值相关系数的平方)越高越好,可以通过增加解释变量来实现,可是解释变量多了后很多解释变量的系数T检验不显著了,而且增加很多变量后模型的自由度就减少了,这些情况狂的存在往往使得模型预测不精确;修正拟合优度就是将残差平方和跟总离差平方和分别除以各自的自由度,这样就剔除了变量个数对其影响了。
首先有一个恒等式:TSS = ESS + RSS
即 总偏差平方和 = 回归平方和 + 残差平方和
通常情况,我们都是讨论解释变量对总效应的贡献,使用一个叫“拟合优度”(或者叫“判定系数”)的指标 其定义为:
回归平方和 / 总偏差平方和 =ESS/TSS = (TSS-RSS)/TSS =(923-325)/923
如果说随机误差对总效应的贡献,那可以直接 RSS/TSS
因为 1 - (TSS-RSS)/TSS 就可以化为 RSS / TSS
SPSS中pearson(皮尔逊相关系数)看r值还是P值,确定相关性
两个值都要看,r值表示在样本中变量间的相关系数,表示相关性的大小;p值是检验值,是检验两变量在样本来自的总体中是否存在和样本一样的相关性。
SPSS回归系数 SIG
在SPSS软件统计结果中,不管是回归分析还是其它分析,都会看到“SIG”,SIG=significance,意为“显著性”,后面的值就是统计出的P值,如果P值0.01
sig是指的的显著性水平,就是p值,一般来说接近0.00越好,过大的话只能说不显著,sig是F检验的结果,<0.01代表方程通过检验,进行回归分析是有效的
F表示数据的方差,sig表示显著性,也就是对F检验的结果,如果sig>0.05则说明模型受误差因素干扰太大不能接受。R是复相关系数,表示观测值和模型描述值之间的线性相关系数,越大越好。R方通俗的说就是解释率,就是说你的自变量能够解释多少因变量的变化。具体到你这个就是模型不能接受,自变量解释了22.1%,剩下的只能用误差解释。
spss软件的线性回归分析中,输出了一个anova表,表中的回归、残差、平方和、df、均方、F、sig分别代表什么
回归是方法
残差是实测与预计值的差值
平方和有很多个,不同的平方和的意思不一样
df是自由度
均方是方差除以自由度 f是f分布的统计量 sig是p值
anova表中的“回归平方和”表示反应变量的变异中的回归模式中所包含的自变量所能解释的部分。“残差平方和”代表反应变量的变异中没有被回归模型所包含的变量解释的部分。这两个值与样本量及模型中自变量的个数有关,样本量越大,相应变异就越大。df是自由度,是自由取值的变量个数,F为F检验统计量,用于检验该回归方程是否有意义,当Sig对应的值小于0.05(当显著性水平为0.05时)时,说明所建立的回归方程具有统计学意义,即自变量和因变量之间存在线性关系。
多元线性回归分析中,t检验与F检验有何不同
t检验常能用作检验回归方程中各个参数的显著性,而f检验则能用作检验整个回归关系的显著性。各解释变量联合起来对被解释变量有显著的线性关系,并不意味着每一个解释变量分别对被解释变量有显著的线性关系
F检验主要是检验因变量同多个自变量的整体线性关系是否显著,在k个自变量中,只要有一个自变量同因变量的线性关系显著,t检验则是对每个回归系数分别进行单独的检验,以判断每个自变量对因变量的影响是否显著。
计算结果肺活量例子

