分层回归分析如何分层 怎样做分层回归分析,哪本书有详细介绍

作者&投稿:高樊 (若有异议请与网页底部的电邮联系)

分层回归通常用于中介作用或者调节作用研究中。

分析时通常第一层放入基本个人信息题项或控制变量; 第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。



一般来说,将比较固定的变量比如人口统计学变量放入第一层;之后再逐步加入其它变量。回归的方法一般在BLOCK1里面选择ENTER法,BLOCK2选择STEPWISE法。
其中相关分析中常用到的是二元变量和偏相关分析,此时主要从相关系数和相伴概率下结论,若r值大0.7于同时p值小于0.05,则两者具有较强的相关性且具有统计学。

分层回归是解决数据的“重要性”问题,就是谁先分析,就是我们平时model1先校正最重要的协变量,然后model2在1的基础上再校正些协变量。

一般来说,将比较固定的变量比如人口统计学变量放入第一层;之后再逐步加入其它变量。回归的方法我一般在BLOCK1里面选择ENTER法,BLOCK2选择STEPWISE法。

什么是分层逐步多元回归分析?~

所谓回归分析法,是在掌握大量观察数据的基础上,利用数理统计方法建立因变量与自变量之间的回归关系函数表达式(称回归方程式)。回归分析中,当研究的因果关系只涉及因变量和一个自变量时,叫做一元回归分析;当研究的因果关系涉及因变量和两个或两个以上自变量时,叫做多元回归分析。此外,回归分析中,又依据描述自变量与因变量之间因果关系的函数表达式是线性的还是非线性的,分为线性回归分析和非线性回归分析。通常线性回归分析法是最基本的分析方法,遇到非线性回归问题可以借助数学手段化为线性回归问题处理。
分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验。

模型比较可以用来评估个体预测变量。检验一个预测变量是否显著的方法是比较两个模型,其中第一个模型不包括这个预测变量,而第二个模型包括该变量。假如该预测变量解释了显著的额外变异,那第二个模型就显著地解释了比第一个模型更多的变异。这种观点简单而有力。但是,要理解这种分析,你必须理解该预测变量所解释的独特变异和总体变异之间的差异。

一个预测变量所解释的总体变异是该预测变量和结果变量之间相关的平方。它包括该预测变量和结果变量之间的所有关系。

预测变量的独特变异是指在控制了其他变量以后,预测变量对结果变量的影响。这样,预测变量的独特变异依赖于其他预测变量。在标准多重回归分析中,可以对独特变异进行检验,每个预测变量的回归系数大小依赖于模型中的其他预测变量。

在标准多重回归分析中,回归系数用来检验每个预测变量所解释的独特变异。这个独特变异就是偏相关的平方(Squared semi-partial correlation)-sr2(偏确定系数)。它表示了结果变量中由特定预测变量所单独解释的变异。正如我们看到的,它依赖于模型中的其他变量。假如预测变量之间存在重叠,那么它们共有的变异就会削弱独特变异。预测变量的独特效应指的是去除重叠效应后该预测变量与结果变量的相关。这样,某个预测变量的特定效应就依赖于模型中的其他预测变量。

标准多重回归的局限性在于不能将重叠(共同)变异归因于模型中的任何一个预测变量。这就意味着模型中所有预测变量的偏决定系数之和要小于整个模型的决定系数(R2)。总决定系数包括偏决定系数之和与共同变异。分层回归提供了一种可以将共同变异分配给特定预测变量的方法。

分层回归

标准多重回归可以测量模型所解释的变异量的大小,它由复相关系数的平方(R2,即决定系数)来表示,代表了预测变量所解释的因变量的变异量。模型的显著性检验是将预测变量所解释的变异与误差变异进行比较(即F值)。

但是,也可以采用相同的方式来比较两个模型。可以将两个模型所解释的变异之差作为F值的分子。假如与误差变异相比,两个模型所解释的变异差别足够大,那么就可以说这种差别达到了统计的显著性。相应的方程式将在下面详细阐述。

分层回归就是采用的这种方式。分层回归包括建立一系列模型,处于系列中某个位置的模型将会包括前一模型所没有的额外预测变量。假如加入模型的额外解释变量对解释分数差异具有显著的额外贡献,那么它将会显著地提高决定系数。

这个模型与标准多重回归的差异在于它可以将共同变异分配到预测变量中。而在标准多重回归中,共同变异不能分配到任何预测变量中,每个预测变量只能分配到它所解释的独特变异,共同变异则被抛弃了。在分层回归中,将会把重叠(共同)变异分配给第一个模型中的预测变量。因此,共同变异将会分配给优先进入模型的变量。

重叠的预测变量(相关的预测变量Predictor variables that overlap)
简单地看来,由一系列预测变量所解释的变异就像一块块蛋糕堆积在一起。每个预测变量都有自己明确的一块。它们到达桌子的时间是无关紧要的,因为总有同样大小的蛋糕在等着它们。不同部分变异的简单相加就构成了某个模型所解释的总体变异。

但是,这种加法的观点只有在每个预测变量互相独立的情况下才是正确的。对于多重回归来说,则往往不正确。假如预测变量彼此相关,它们就会在解释变异时彼此竞争。归因于某个预测变量的变异数量还取决于模型中所包含的其他变量。这就使得我们对两个模型的比较进行解释时,情况变得更为复杂。

方差分析模型是建立在模型中的因素相互独立的基础上的。在ANOVA中,因素对应于多重回归中的预测变量。这些因素具有加法效应,变异(方差)可以被整齐地切开或分割。这些因素之间是正交的。

但是,在多重回归中,变量进入模型的顺序会影响该变量所分配的变异量。在这种情况下,预测变量就像一块块浸在咖啡杯中的海绵。每一块都吸收了一些变异。在分层多重回归中,第一块浸入咖啡杯的海绵首先吸收变异,它贪婪地吸收尽可能多的变异。假如两个预测变量相关,那它们所解释的变异就存在重叠。如果一个变量首先进入模型,那它就将重叠(共同)变异吸收据为己有,不再与另一个变量分享。

在标准多重回归中,所有预测变量同时进入模型,就像将所有海绵同时扔进咖啡杯一样,它们互相分享共同变异。在这种情况下,偏相关的平方(sr2)与回归系数相等,它们检验了相同的东西:排除了任何共同变异后的独特变异。这样,在多重回归中,对回归系数的T检验就是sr2的统计显著性检验。但是,在分层回归或逐步回归中,sr2不再与回归系数相等。但T检验仍然是对回归系数的检验。要估计sr2是否显著,必须对模型进行比较。

模型比较就是首先建立一个模型(模型a),使它包括除了要检验的变量以外的所有变量,然后再将想要检验的变量加入模型(模型b),看所解释的变异是否显著提高。要检验模型b是否要比模型a显著地解释了更多的变异,就要考察各个模型所解释的变异之差是否显著大于误差变异。下面就是检验方程式(Tabachnik and Fidell, 1989)。

(R2b-R2a)/M

F = ————————

(1+ R2b) /dferror

(2为平方,a,b为下标。不知道在blog里如何设置文字格式)

原文(DATA ANALYSIS FOR PSYCHOLOGY, George Dunbar)如此,但参考了其他书后,觉得这是误印,真正的公式应该是这样的:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror
注:

M是指模型b中添加的预测变量数量

R2b是指模型b(包含更多预测变量的模型)的复相关系数的平方(决定系数)。

R2a是指模型a(包含较少预测变量的模型)的复相关系数的平方(决定系数)。

dferror是指模型b误差变异的自由度。

分层回归与向前回归、向后回归和逐步回归的区别
后三者都是选择变量的方法。

向前回归:根据自变量对因变量的贡献率,首先选择一个贡献率最大的自变量进入,一次只加入一个进入模型。然后,再选择另一个最好的加入模型,直至选择所有符合标准者全部进入回归。

向后回归:将自变量一次纳入回归,然后根据标准删除一个最不显著者,再做一次回归判断其余变量的取舍,直至保留者都达到要求。

逐步回归是向前回归法和向后回归法的结合。首先按自变量对因变量的贡献率进行排序,按照从大到小的顺序选择进入模型的变量。每将一个变量加入模型,就要对模型中的每个变量进行检验,剔除不显著的变量,然后再对留在模型中的变量进行检验。直到没有变量可以纳入,也没有变量可以剔除为止。

向前回归、向后回归和逐步回归都要按照一定判断标准执行。即在将自变量加入或删除模型时,要进行偏F检验,计算公式为:

(R2b-R2a)/M

F = ————————

(1- R2b) /dferror

SPSS回归所设定的默认标准是选择进入者时偏F检验值为3.84,选择删除者时的F检验值为2.71。

从上面可以看出,分层回归和各种选择自变量的方法,其实都涉及模型之间的比较问题,而且F检验的公式也相等,说明它们拥有相同的统计学基础。但是,它们又是不同范畴的概念。分层回归是对于模型比较而言的,而上面三种方法则是针对自变量而言的。上面三种选择自变量的方法,都是由软件根据设定标准来自动选择进入模型的变量。而分层回归则是由研究者根据经验和理论思考来将自变量分成不同的组(block),然后再安排每一组变量进入模型的顺序,进入的顺序不是根据贡献率,而是根据相应的理论假设。而且,研究者还可以为不同组的自变量选用不同的纳入变量的方法。

分层回归在SPSS上的实现

在线性回归主对话框中,在定义完一组自变量后,在因变量不变的情况下,利用block前后的previous和next按钮,继续将其他变量组加入模型。

By correlation analysis, the intervention group after the intervention of anxiety and depression scores and total sleep quality and sleep quality, sleep time, sleep time, sleep disturbance, day functions between various components had significant positive correlation. After the intervention in anxiety and depression scores as independent variables, sleep quality score as the dependent variable, stratified and stepwise regression analysis, results showed that sleep quality and depression explained 41.3% variability and anxiety can explain variation in sleep quality stem 32.7%.

分层回归分析如何分层
答:分层回归通常用于中介作用或者调节作用研究中。分析时通常第一层放入基本个人信息题项或控制变量; 第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。

如何在SPSS中做分层回归分析
答:spss做中介分析 直接在多元回归分析里面 有个 block 那个分层就可以了,将自变量一层一层的移入到那个对话框,就会一次性出来一个整合的表格,而不应该你这样你一步一步地回归。

怎么在spss上做层次回归分析
答:1. 在SPSS中进行层次回归分析的第一步是打开SPSSAU的进阶方法菜单。2. 在进阶方法菜单中,选择分层回归选项。

求助多层回归分析问题
答:对于多层数据,传统的回归分析有两种处理方法:(1)将所有的更高一层的变量都看做是第一水平的变量,直接在学生个体水平上对数据进行分析。这样做存在的问题是,班级变量对同一个班级内的学生有相同的影响,不同班级学生对应不同的班级变量,而不区分班级对学生的影响,假设同一班级的学生间相互独立是不...

怎么在spss上做层次回归分析
答:线性回归是研究X对于Y的影响,如果说有多个X,希望让模型自动找出有意义的X,此时就可以使用逐步回归。另外在一些管理类研究中会涉及到中介作用或者调节作用,此时就可能使用到分层回归等。操作:SPSSAU[进阶方法]-->[分层回归]。

spss中的层次回归分析
答:1、打开要进行线性回归分析的SPSS数据,点击【分析-回归-线性】。2、将因变量和自变量分别放入相应的框中,可以进行选择变量,对变量进行筛选,利用右侧的“规则”按钮建立一个选择条件,只有满足该条件的记录才能进行回归分析。3、点击右侧的统计量打开统计量子对话框,勾选图中的选项,打开选项子对话框,...

什么是分层逐步多元回归分析?
答:分层回归通常用于中介作用或者调节作用研究中。 分析时通常第一层放入基本个人信息题项或控制变量;第二层放入核心研究项。使用SPSSAU在线spss分析,输出格式均为标准格式,复制粘贴到word即可使用。 分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模...

多元阶层回归分析在spss中怎么做?
答:在SPSS中进行多元阶层回归分析的步骤如下:1. 首先,选择SPSS中的分层回归功能,通常可以通过菜单中的“分析”选项找到。2. 将需要分析的变量放入分析项中,SPSS会自动处理其他相关指标,无需手动设置。3. 完成设置后,SPSS会生成包含标准化的系数、t值、P值等信息的统计表,以及智能化的文字分析结果,...

怎么在spss上做层次回归分析
答:2.将因变量和自变量放入格子的列表里,上面的是因变量,下面的是自变量。3.设置回归方法,这里选择最简单的方法:enter,它指的是将所有的变量一次纳入到方程。其他方法都是逐步进入的方法。然后点下一层再选入其他变量 4.等级资料,连续资料不需要设置虚拟变量。多分类变量需要设置虚拟变量。虚拟变量ABCD...

多元阶层回归分析在spss中怎么做?
答:可使用spssau的分层回归,操作简单两步出结果。操作步骤:1、选择spssau的分层回归。2、放入分析项,其他指标项均自动生成不用设置。同时生成标准表格结果及智能文字分析,不会统计学也可以看懂。