张伟豪元分析培训视频笔记-L5-0108-异质性检验Heterogeneity
- 格式:docx
- 大小:2.98 MB
- 文档页数:7
先讲文章的重要性和介绍概念
然后介绍研究方法
这里介绍太笼统,没有介绍文章都从哪里来的,只说了找到30篇
H统计量再次出现
里面的H2.8值就是Q值226.61除以K-1,K就是样本数
总结:元分析文章流程
首先选定主题,告诉别人主题有多么重要
然后要决定做的是哪些变量的关系
接着做文献搜索,包括用哪些关键词、数据库,搜索了多少篇扣除掉重复的等剩下多少篇然后进行分析,首先分析是固定效果模型还是随机效果模型
如果是随机效果模型就要研究异质性,看I、H、R、Q等指标
如果存在异质性,要做调节变量分析
如果是类别变量就做次群体分析,如果是连续变量就做元回归分析
然后检验有没有出版偏误,如果有,你是怎么检查的,选择一个出版偏误的分析方法
做完了就介绍有没有出版偏误,有没有校正
接着可以做一下敏感度分析,看一下有没有离群值或者累计分析中的按一定标准的发展趋势最后就要写结论。
比如上图要做一个TPP计划行为理论的研究,AAA代表一篇论文,里面会有三种关系,就是outcome栏里的,那么这个就需要做多重结果
后面就需要选择相关分析correlation,如上
然后建立上图档案,红框中选择auto就行了,前面相关系数一定要输入文章中的皮尔森相关系数,不能输入回归系数,切记!
分析结果后,如果要查看分开的结果,就需要选红框中select by
选择框中的选项,就是选三个其中一个,因此左边框中的出来的结果就是选中的分析结果
如果要把三个所有结果都做出来,就选择上图红框中的选项
结果就会三种都出现
如果要将三种结果作对比,就是ATTtoBI,PBCtoBI等,就要选择group by选项,如上,选择群组比较
结果如上,那么这个和次群体比较有什么区别呢?解释如下
如果要做如上分析,相当于在前面例子的基础上又加上了性别分组
整合之后就如上,这样的话就相当于将次群体和多重结果两项功能合并了,那么就可以在一篇论文中比较不同性别结果有什么不一样,不同性别间的不同变量比较有什么不一样等。
可编辑修改精选全文完整版Meta分析中的异质性(heterogeneity)及其处理原则和方法Meta 分析又称荟萃分析、汇总分析、整合分析,是对具有相同研究题目的多个医学研究进行综合分析。
meta分析的目的在于增大样本含量,减少随机误差所致的差异,增大检验效能。
一个高质量的Meta 分析相当于开展了一个多中心的研究,理想情况下,Meta分析纳入的各项研究均指向同一个结果,即各研究间具有同质性。
尽管,我们试图通过严格的入选和排除标准,以保证纳入研究的同质性。
然而,实际情况往往不尽如意。
会造成“合并萝卜、白菜、西红柿”的错误,就算是勉强合并统计量,得出的结论也不可信。
meta就没有意义了。
所以,合并效应量之前,一定要进行异质性检验。
可以明确的说,纳入Meta分析的所有研究都存在异质性。
当异质性较大时,超出了随机误差,Meta分析的结果就不太可靠。
我们需要通过适当的方法识别它,对其进行检验,以决定后续的处理策略。
梅斯医学提供有关异质性处理的策略。
我们在做meta分析前,必须要做的事有两件:A 确定文献的纳入和排除标准;B 纳入文章的质量评分,例如jadad评分、QUADAS评分等。
临床异质性、方法学异质性和统计学异质性三者是相互独立又相互关联的,临床或方法学上的异质,不一定在统计学上就有异质性表现,反之亦然。
统计学异质性是指:不同试验间被估计的治疗效应的变异。
其实,我们可以这样理解,A“严格执行文献的纳入和排除标准”可以减少临床异质性的来源;B “纳入文章的质量评分”可以减少方法学异质性的来源。
异质性检验方法异质性检验方法主要有图示法和统计学检验。
比如,大家熟悉的森林图,森林图可显示单项研究和合并效应量及其置信区间,如果单项研究结果的置信区间有很少的重叠或者不重叠,则提示研究间可能存在异质性。
如图,第1项研究和第2、第4项研究的置信区间无重叠,提示研究间可能存在异质性。
统计学异质性的六种检验方法,三种是检验,三种图示,即Q统计量、I2统计量、H统计量、Galbraith图法、L’Abbe图、漏斗图)。
T检验是检验两个变量相关,自变量为两个分类变量,因变量为连续变量。
而且自变量只能使两个,但并不是说只能检验只有两个变量的数据,比如性别只有男和女,而是可以检测多个分类变量中的两个,比如年级,一年级、二年级、三年级,我可以用T检验只检测一年级和二年级的。
T检验检验的是均值的差异
做独立样本T检验(独立样本检验和配对样本检验的区别查看2016笔记)
将需要分析的因变量选入上面,自变量选入分组变量,如gender
然后要将gender定义为0和1,因为有时分析的变量里面有好几类变量,比如年级有1/2/3.。
不定义的话spss不知道是要分析哪两组变量
上面的表格是描述变量的情况,主要看下面表格
显著性上,没有小于0.05的,说明两组变量是没有差异的。
如果显著性P值没有小于0.05
的,左边的t值就不会大于1.96.这是在95%置信区间中算出来的值。
这些值必须在30个样本以上才可以。
左边这一部分主要是检验两组自变量的方差是否有差异,上面显著性都大于0.05,因此方差没有差异。
因此在没有差异的情况下,t值就看第一行“假定等方差”中的数值。
如果方差不是同质性,那么软件就会自动修正,主要修正自由度,但样本大于30的情况下修正几乎没有什么影响(没太听懂),因此不需要去看这一部分。
只有在一种情况下才需要去看修正后的值,就是显著性P值在0.05左右,比如0.049,那修正后就有可能变得显著。
效果量又称为实务上的显著性
实务上的显著性含义:由于统计上的显著性是以P值小于0.05来衡量,但是如果样本够大,几乎所有的研究都能够显著,因此,研究者认为不以P值为衡量标准,而是看实际值的大小来判定是否显著,这就是实务上的显著性。
统计上的显著性会受到样本数的影响,样本越大越显著,但是不会受到效果量的影响
以上均为效果量,也就是做某件事肯定会有显著效果。
也就是说,以前的研究都是报告统计上的显著,至于实际现实中某件事有没有效果,一般不会关注,实务上的显著性也就是现实中的显著性,是在现实中能不能感受到明显的变化
比如你戒烟想多活,是因为你觉得戒烟确实有效,你做环保拯救地球是因为你觉得环保行为确实有效
元分析主要做以上三类分析,比例其实相当于卡方检验,平均相当于T检验或方差检验,相关系数相当于相关分析(皮尔森相关)
元分析做的主要就是自变量和因变量的分析,比较简单,有时会加上调节变量
比例主要是RR和OR分析,在样本量很大的情况下两者差别不大
OR就是胜算率,RR就是风险率
具体见上图
平均值差异中一般非标准化差异很少用,主要用标准化差异
相关系数就是皮尔森相关,建议值如上图
上图是概率的解释
上图是胜算的解释
上图是胜算比的解释
大于1表示效果比较明显(解释较为抽象),一般OR大于2表示效果非常明显
风险比比较容易理解,见上图解释
上图例子说明RR含义,上图结果等于2,也就是说,暴露在粉尘下员工得病的风险几率是没有暴露员工的2倍。
上图表明,一般用OR比较多,用RR比较少。
出版偏误就是我们没有找到的文章对我们结果的影响,因为没有找到的文章都被作为缺失值,而出版偏误属于非随机缺失,因此会对结果产生影响检验出版偏误由以上几种方法运行数据后,点击红框选项,进行出版偏误分析首先出现漏斗图,发现漏斗图两侧的点并不均衡,左边很多,右边没有,说明可能有出版偏误但是还要看具体统计数据,选择view下面的选项,可以看不同的出版偏误解释方式,先看第一个以上数字的意思是还需要找多少篇不显著的文章,才能没有出版偏误,也就是将Alpha值设为0.05,也就是大于0.05(不显著),而Z值到达了1.95995,也就是小于1.96(不显著),才能达到研究不显著。
那就需要424篇,才能达到不显著。
而我们只有13篇文章,差距太大了,显然不太可能,因此说明我们没有出版偏误。
但是差距多大算差的多?如果现在不是424篇而是42篇呢?这个差距大还是小?现在还没有学者给出标准,因此只能看P值的显著性,P小于0.05就说明没有出版偏误。
下边的分析是指,不一定非要找不到的文章都是不显著的,可以有一点或一小部分是显著的也不会有大的影响,因此可以自己主观设定标准,红框中和下边的1都是不显著,可以自己设定一下,有一点显著的标准,比如0.95,0.98等我们先设定为0.9,下边的均值比率先保持1,然后计算结果显示,还需要41篇文章,才能达到我们设定的标准如果我们把均值比率也设定为0.95,那么结果显示还需要80篇文章才能达到我们设定的标准。
但是问题和上面方法一样,没有标准告诉我们究竟差多少篇才算够大,没有出版偏误。
因此我们一般用上面的经典方法,看P值就可以了。
我们再看其他几个结果,点红框中的next table红框中的上面是没有修正的结果,下边是修正后的结果,如果这个P值大于0.05,说明没有出版偏误,以上两个结果都大于0.05,说明没有出版偏误再看下一个报表,也看红框中的P值,也大于0.05,说明没有出版偏误。
那么这几个计算结果都一样,如果出现有的有偏误有的没有该怎么办呢?这就要用到最后一种方法trim and fill上图为运行结果这种方法的原理是,先把左边偏离比较多的,影响比较小的文章移除,每移除一个就计算一次,看看是否平均分布,如果没有再继续移除,直到平均分布为止,最后会算出一个校正后的效果量,trim就是剪的意思。
以上是元分析的步骤以上为森林图点击红框中,放大图形放大后可以再调整尺寸,如红框中放大后图形,方框的大小代表权重,越大代表权重越大。
方框是点估计值,也就是左边中的ODDS ratio,两边线段是置信区间,如果不包含1,(因为是ODDS ratio,所以是1,要是RR 就是0),那么就是显著,如果包含了就是不显著,Z值小于1.96,P值大于0.05,说明就是不显著上图红框代表权重,一般文章里不会报告权重如果放大显示,权重就显示为数字,而不是图形了上图为分析的固定效应和随机效应,随机效应的置信区间明显比较宽,是因为随机效应加入了组间方差,因此会比较宽,而且点估计值也不一样。
需要报告哪个就写哪个下一步要看有没有同质性或异质性,如果没有异质性就用固定效应,有异质性就用随机效应。
从森林图中看,每个研究的估计值和区间都差很多,因此直觉判断为有异质性,然后就要看计算结果点next table看结果结果中卡方值Q为163.165,主要看P值,小于0.1,说明有异质性,I值为92.645,一般I 小于25为没有异质性,25到50之间为一般异质性,大于75为高度异质性。
T值为组间方差,I值为组间方差T除以总方差,也就是说组间方差所占比例高达92.645,每组和每组间的差异很大。
I值为标准化值,范围从0到1.另外,I值的缺点是如果样本比较少,比如只有十几篇文章,那么I值就会不太精确。
点击红框可以更改图表颜色,用以复制到word中去一般P值小于0.1就可以,说明就有异质性,如果看森林图里有明显的的偏离中心而且权重比较大的值,可以把这篇文章删掉,那么P值就可能大于0.1了,这样就说明没有异质性,直接报告固定效应的值就可以了另外一个判断异质性的标准就是I值,上图为I值的特性异质性的处理,一种是有异质性就不进行元分析,第二种是探讨原因,忽略后直接进行随机效果分析(后边会讲到这两种方法,分别是上图中的次群体分析和元回归分析),第三种是找出极端值,删除后直接用固定效果报告。
引言也要先写文章的重要性,和以前文章的差异性
这篇文章没有像上一篇把有哪些差异都写出来,只是写了有差异。
因此在看文章时要知道谁的文章完整,谁的不完整,自己在写文章时要尽量都写完整,这样才能写好。
而且没有完整的文章,只能自己去发现文章的好坏,因此也就没有一个完美的范文去参考
要分清楚文章一共要有多少个变量,上图中10个与ATT和BI的关系,就是20个,再加上ATTA和BI的关系,一共是21个,但不是每篇文章都有21个变量,有几个就用几个
CMA做不了信度分析,因此上表为从每篇文章中抄出来的信度
上图中公式写不写都没关系,CMA的结果中可以直接出来,复制就可以
最后发现这个文章没有做异质性分析、也没有做次群体分析,也没有说明用的固定效应模型还是随机效应模型。
而且文章里要有森林图和漏斗图,这两篇文章都没有。
因此,自己写文章时就要注意,查漏补缺。
假设研究结果都是真实的结果,意思是假设搜集的所有论文的研究结果,和总体的研究结果是一样的,那就是真实的结果。
但实际上肯定是有差异的,这种差异主要是抽样误差造成的。
因此在固定效果模型里,对样本数越大的权重越大,就是因为样本越大越精确。
比如上面的例子,把这2000人分为随机5群,如200/300、100/400/1000,里面只有1000的平均值最接近总体2000的均值,但是这5群均值肯定和2000都不一样,这是因为随机误差的问题,因为有的组可能正好把成绩好的都分到一起了,有的组则把不好的分到了一组。
那么,误差纯粹由随机抽样造成的模型就叫固定效应模型。
上图为森林图,方块为观察值,和圆形的真实值三次测量的都不一致,真实值是0.6,而这三次不一致都是抽样误差造成的。
随机效果模型——每个论文之间由于样本、研究方法等的不一致,造成研究结果不一致,这叫做组间方差。
每个研究本身因为样本等原因,和真实值也会有误差,这叫做组内方差。
总方差就是组内加组间方差,当模型里面是这两个方差相加的时候,就是随机效果模型总方差就是组间方差加上组内方差(固定效果),整个的模型就是随机效果模型。
随机效果模型如上图——虚无假设是所有研究平均效果量为0,固定效果模型是每一个研究平均效果量为0.举例说明,从5个学校抽2000人,这5个学校之间就有差异,比如有的学校好,有的差,那么这个就是组间差异,而从每个学校抽的学生也会有差异,比如有的学生好,有的学生差,那么这就是组内差异。
所以随机效果既包括组间差异,也包括组内差异。
上图中上面的误差(方块到圆圈)是组内方差,是抽样时产生的误差,下面的误差是组间方差。
上面这段文字的意思是——固定效果里,如果选了很多论文,里面有的论文样本很小,有的样本很大,那么就会给小样本赋很小的权重,给大样本赋很大的权重,这样的话即使把那些小样本删掉,对总体也不会有很大影响。
但是随机效果里,就会把小样本赋比较大的权重,大样本赋比较小的权重,从而平衡两种样本。
因为在输入数据时,很多论文的数据形式不一样,比如有的是发生率和总数、有的是发生的和不发生的,那么在输入数据时就要像上图一样,下面的红框是三种格式,可以任意增加格式形式,选哪个标签就用哪种输入形式。
每增加一种输入形式,就选一次上图中红框的增加输入格式。
不管输入几种形式的数据,右边黄色框都会转为一样形式的效果量。
要注意的是,增加数据形式只能是同一类的,不能跨类别,比如有的选上面红框的,有的选下面红框的,这就是两类数据格式了,差别太大,无法同时输入。
最后,如果搜集的文章数据形态无法找到对应的输入方式,那么就只能放弃这篇文章。
一般探讨中介变量有以下三种情况比如恐龙能变成鸟,觉得不可思议,但是如果知道有始祖鸟,就会明白恐龙先变成始祖鸟,再变成鸟类。
始祖鸟就是中介变量。
比如乔丹赢球会促使股市大涨,经研究发现,原来是只有有钱人才能去看球,乔丹赢球会增强这些人的信心,从而投入更多钱到股市中,使股市大涨。
最后得出结论,对政府有信心会使股市大涨,因此除了乔丹赢球,还有很多可以增强民众对政府信心的方法,比如发动战争。
这样就是知道了中介变量是什么,可以用很多自变量去解释。
比如很多人压力大会患忧郁症,经研究发现想得多的人容易患忧郁症,想的多就是中介变量,那么就想办法操控这个中介变量,不让人去想那么多,就会影响最终的因变量,也就是患抑郁症。
检验中介变量有以下三种方法:常见的中介变量有以下几种:如果上图中张老师和林志玲约会,原因是他找了经纪公司,那么经纪公司就是中介变量。
张老师肯定认识经纪公司,这就是显著影响a。
经纪公司也肯定认识林志玲,这是显著影响b。
如果张老师只是通过经纪公司约会林志玲,也就是a和b显著,但是他不认识林志玲,也就是c不显著,那么这就是完全中介效应。
如果张老师本来就认识林志玲,也就是c显著,同时又通过经纪公司约会林志玲,也就是a和b显著,那就是部分中介效应。
中介效应的检验:第一种方法,因果法将有中介关系的三个构面之间的线命名为a、b、cplus,然后代入数据,运行结果是a、b、cplus都显著,说明是部分中介效应。
如果cplus不显著,那就是完全中介效应。
其中a*b称之为间接效果,cplus称之为直接效果。
总效果c=a*b+cplus,操作如下首先将路径图中a和b改为0,意思是没有相关,然后运行,结果就会显示cplus 的估计值变为了0.838,这就是a*b+cplus的结果。
可以举例说明如下如果X到Y要流过150升水,如果只通过c途径,那么c就流150升,如果即通过cplus又通过a和b,a和b一共流了100升,那么cplus就只会流50升。
控制变量和调节变量其实都是自变量,区别在于控制变量本来就在模型中,而调节变量是后来才进入模型中;还有区别就是控制变量没有假设,调节变量是有假设的。
上图中的论文模型,右边蓝框里是控制变量,没有假设。
红框里的是自变量和调节变量,有假设。
在上边这个调节效应假设中,要出现三个变量,这是正确的写法。
论文数据分析后,第一步先检测控制变量,红框中的控制变量size显著。
控制变量监测的结果必须显著,否则就不能叫控制变量,不能出现在模型中。
然后检测主效应,红框中的两个主效应CC和KD都显著,假设H1和H2成立,但是上面的MT调节效应不显著,没关系,这时候不用管它,因为调节效应应该是交互作用,这时的单一MT还不叫调节效应,虽然他现在在模型中。
上图中第三步是调节效应,可以看到检验的是交互作用,都显著,这时候的才是真正的调节效应。
这时候就不需要再报告主效应的CC和KD了。
自变量和因变量是潜变量,调节变量是观察变量的检测方法和都是观察变量检测的方法是一样的,如下下面做一次调节变量有三档的检验,比如不是性别男和女,而是收入高中低,需要建立三个组group在左边点击增加新的group,但是要把all groups的对勾画上,因为如果不画,新增组里就没有图形。
把左边的group名改为low/med/high,把每一组的路径名称也相应的改了。
改路径名的时候记得这次把all group的对勾去掉。
然后在下边新增模型处点击新增然后选择new新增,每新增一个就命名一个,然后每个模型一次检验low=high,low=med,med=high,最后可以再新增一个overall,就是high=low=med。
然后代入数据结果显示都不显著。
做调节效应的4个以及更高的档也是一样的做法。
如果调节变量也是潜变量而不是观察变量怎么办呢?比如上图,如果自变量有三个观察变量,调节变量也有三个观察变量,那么就需要3*3=9次计算,得出他们的交互项,尤其是需要平均中心化的时候,就会操作很多步,很麻烦。
我们在做T检验来测定题目是否回答过于集中时,不能把问卷上所有题目都放在一起做,要按维度来做,因为有的维度和维度之间是相反的意思,放在一起做就会相互抵消掉。
从预试开始,应该按上边讲的方法,抽出一部分或者先做一部分样本,作为预试样本,然后找出样本高分数和低分数,进行T检验比较(因为T检验专门处理小样本),看看高低分有没有差异,有的话说明问卷问题比较好,有个别题目有问题就删掉。
然后下一步分析方法写用的什么,spps还是sem,还要写都用哪些方法,比如描述性统计、T检验、方差检验等,写为什么用这些方法,然后下一步数据收集,写去哪里收集的数据,收集了多少无反应偏误不用管如果是分类变量使用频率表,检查下有没有缺失值,各个维度问题是否正常,(见前面关于频率表的分析介绍)。
如果是连续变量就使用描述性统计,看看有没有符合正态分配,(方法见以前分析介绍),如果有极端值影响正太分布,那就用箱型图或者标准化找出3以上的值(方法见以前介绍),这一部分内容,尤其是正态分布的检验,可以不写在论文中,因为写了人家容易挑毛病,但是不写也需要自己下边做好,把数据处理好,这样才能跑出好的结果,不然不处理数据可能跑不出好结果来。
复选题分析,一般分类变量做交叉表也就是卡方检验,来检验变量之间有无相关关系推论统计,一般是连续变量开始做推论统计,上图红框部分是接下来要做的,叫做数据筛选,不论你是用什么统计方法,spss 还是SEM等等,都需要按步骤做数据筛选,这是必须要做的。
检验完要形成这样一个表每次不同的题目测试的结果都一样,这就叫做有信度,也叫副本信度。
如果考了一次题目,过了一段时间再考一模一样的题目,如果相关度很高,一般高于0.7,就说有信度,叫做重测信度。
效度的种类,一般在论文分析中经常用到的是收敛效度和区别效度。
可靠度也就是信度的分析方法选择分析——度量——可靠性分析,点击统计量选项,勾选相关性和如果项已删除则进行度量,这样就能跑出item to total(题目与总体关系),确定后运行科隆巴赫系数要大于0.7,但是不要超过0.9,超过了代表信度过高,要不就是一个人填了很多问卷,要不就是维度的很多问题都类似。
敏感度分析就是检验某些变量对整体的影响,第一种方法是每次移除一个研究,最后看哪个研究是偏离值
将数据分析后,点最下边的选项卡one-study remove
结果发现,红框中偏离了总体值,总体值是最下边红框的值,说明这个变量对总体影响较大
第二种是累计分析法,就是按照一定的顺序,将研究一个一个加进去,从而发现按照这种顺序整体研究的发展趋势
比如上面数据按照latitude维度进行排序,看看研究结果随着维度的变化会有什么趋势
分析后点击下边红框中
会发现随着维度增高,点估计值越来越大(越来越会发生,因为1是没有效果,越远离1效果越大)
现在我们增加一个年代变量,看看研究随着年代变化会有怎样的变化。
在变量类型可以不选择,红框中的意思是数据类型为整数
输入年代后进行排序
分析后发现年代越现代,效果量越低,也就是越不明显(因为越接近1)
要注意的是,累计分析只是效果量的展示,不是一种分析。
交叉效度评估的方法把上图中所有数据平均分成两群打开转换——计算变量在变量名称框输入random,在函数值栏选择全部,在下面函数和特殊变量选入RV Bemoulli双击选入,在()里填入0.5,意思是将所有数据平均分成两群,每群各占50%最后一列就会出现random列然后打开一个模型,添加一个分组group,将两个分组分别命名,代表刚才的随机两个组分别命名为validation确定和calibration校正项然后点击上边红框中这个按键就会自动在左边红框区域新建5个模型,不用再手动添加5个模型分别代表第一个:测量结构全等第二个:结构路径全等第三个:结构残差全等第四个:结构方差及协方差全等第五个:测量残差全等然后选入数据,运行然后打开output,查看最后的model comparison,主要看每一个的的第一行,P 值应该大于0.05(因为我们希望所分开的两个模型差异不显著,所以模型才有交叉效度),如果p值稍微小于0.05,如第一行的为0.038,那就看TLI的值,这个值小于0.05则模型没有显著性差异。
因为p值是统计上的显著性,TLI是实物上的显著性,P值不显著代表可能有很小部分模型不重合,但是只要后边的TLI是0,就没有关系。
这种方式在理论模型的验证中必须用(也就是自己将两个以前学者的模型融合到一起,来看看这种模型的拟合度,也就是这种论文就是证明下新模型可用),其原理就是两个模型凑到一起你怎么知道还是可用的呢?就需要统计数据来验证,理论上需要你再收集另一组同质数据来验证,但是这样太有难度,所以大多数人会用这种方法将自己的数据一分为二,来进行验证,但是也会经常不能通过,因为数据有问题就通不过。
所以一般需要300个以上的样本才能做,如果样本不足200个,就需要再收集另一组同质样本。
二因子成长模型的计算方式和流程(时间序列分析)上图中是一个二因子成长模型,红框中的两个是两个变量,ICEPT是截距,SLOPE 是斜率。
并不是每个元分析文章都会做研究质量评估,有的会做可以以这些标准进行计分,分数越高文章质量越好,最后每篇文章得出的分数在0到10分之间协变量就是自变量,用自变量做回归分析累积式分析就是每篇文章得到的分数相加敏感性分析就是不同质量文章对整体的影响,比如文章质量高的对整体有影响,还是质量低的对整体有影响研究设计是否和自己的一样,比如社会科学都是发问卷发表年份就是定义你搜索的文章是哪年到哪年的,就是范围语言——找英文的还是中文的文章从多篇文章中选择——比如从100篇中选20篇样本数——不要找太小的研究的相似性——最好和自己的研究类似按照步骤将文章转化为数据,输入后就该进行数据分析了将转换的数据录入excel里面然后要转换数据为共同标准,OR,RR等后边会讲到然后决定了固定效果或随机效果,还要看看森林图和漏斗图(后边会讲)统计分析里要做异质性检验,Tau-square是组间差异(后面会讲),收集的文章越多,,这个值越大,所以没有固定标准,是作为后面几个值得参考依据的Q检验缺乏统计检验力,因此将标准调高,用0.1而不是0.05.如果I-square程度在中和高,那么就要进行异质性原因探讨敏感度分析一种是one study remove,意思是一次移除一篇文章,看看它的影响力,如果移除后对整体参数影响很大,就说明这篇文章很重要Cumulative是根据文章发表的时间作为影响参数,看看随着时间的变化,整体的变化。
也可以用前面讲到的影响分数等,其实除了时间还有很多可以作为影响参数的。
最后是进行出版偏误检验上图为元分析整个的流程研究问题——是主观的,自己衡量文献搜索数据萃取——2要有两个以上作者总结,如果意见不一致应该剔除掉这个数据。
如果组间方差够大,就是有异质性,一般组间方差占组内方差超过三分之一,就是够大了。
如果异质性值大于0.1(因为异质性统计值不够大,所以显著性不用0.05,而用0.1),那么就是没有异质性。
异质性检验主要的方法是卡方检验或者称为Q检验
异质性检验是检验组间差异,主要检验指标就是上图中的统计检验的三个值,T2,Q检验,I2
那么I2是怎么得来的?看上图中,分析数据出来后就是上图中的森林图
上图中,森林图每条线段的中间点是点估计值,点的两边线段就是区间估计值。
1.00代表没有异质性(如果是OR或CR,就是1,如果是相关分析就是0)。
也就是区间包含0或1代表不显著,比如第一条线段包含1,显著性就是0.116,不显著,第二条线段不包含1,显著性就是0.000,显著。
森林图是视觉看有没有异质性,上图看着每条线段差距比较大,有左有右,认为是有异质性,就需要看下next table。
Df自由度是12代表有13篇论文,Q-value的显著性显著,代表有异质性。
上图中的T au Squared就是组间方差,I-Squared就是Tau(组间方差)除以组间加组内。
一般I-Squared值低于25%代表没有异质性,50%以上比较严重的异质性,上图中已经是92.645,代表有很高的异质性。
上图为森林图,黑框越大,代表样本数越大,权重越大。
黑框两边为置信区间,如果穿过Y 轴,代表置信区间包含0,也就是不显著。
Y轴有可能是0,有可能是1(上边解释过原因)。
菱形代表所有样本的集合,因为是所有样本,所以置信区间很小,小到看不到。
异质性检验不能在统计结果出来后再解释为什么有异质性,应该是作者在数据建档之后就要解释“论文可能存在异质性,原因可能是。
”,而不能在统计结果出来再解释。
异质性的来源有以上几种
然后要找出异质性的原因,其实就是进行调节变量分析
调节变量分析就两类,一类是类别变量,就是方差分析,一类是连续变量,就是回归分析
如果做回归分析,要有5个尺度,也就是5个选项。
后边就会讲到,回归分析就是固定效应模型的扩展,混合模型就是随机效果的拓展
总结,异质性检验其实就是组间的方差够不够大,如果够大就是有异质性。
并且我们要找到一些原因来解释组间方差。