随机交换法计算多重比较校正的P值-EmpowerStats
- 格式:pdf
- 大小:389.79 KB
- 文档页数:3
重复测量数据分析实例讲解陈星霖陈常中重复测量指的是:对观察对象某个(类)属性进行多次测量。
下面用实例讲解的方法介绍重复测量数据的分析原理与软件操作。
例1.1三个观察组(0、1、2分别表示对照组与两个实验组)分别于四个时点(0、3、7、14小时)测得的肿瘤体积大小数据:例1.2给药浓度不同的情况下,在不同时点(12-72小时)观察的细胞活力数据:重复测量数据分析 1.11、数据格式:这里观察对象是一个个研究个体(ID),分成两组或多组(组别:X),测量指标是某个变量(Y)的值,测量时点是固定的几个时点(t0、t1、t2、…)。
例1.1 三个观察组(0、1、2分别表示对照组与两个实验组)分别于四个时点(0、3、7、14小时)测得的肿瘤体积大小数据:、3、7、14天表示,观察指标用Y表示。
2、分析目的首先要明确的是分析目的。
对这样的数据,可以做很多比较:如四个时点之间的相互比较,三个分组之间的相互比较,还有在每组内四个时点间的相互比较,每个时点内三个分组间的比较。
很多人一上来就开始做这些比较,但有没有想过,为什么要做这些比较?比较出来如有显著性差异又能说明什么?有什么意义?如果一开始就陷到“组间比较”里面,这样就走偏了。
从分析目的角度,这里最重要的是要回答两个问题:1)Y随t(时间)的变化趋势是什么?2)X(分组)不同,Y随t的变化趋势是否不同?针对上例数据,分析目的就是(1)肿瘤体积随天数的变化是什么样的趋势?(2)三组相比这个趋势是否不同?原来这里强调的是Y随t的变化“趋势”,不要一下子陷入到某个具体时点。
可以想象,如果只做时点之间的比较,假如X=1组与X=0组相比,t=7天差异不显著,t=14天差异显著,那么如果问t=10天有没有显著差异呢?这就不知道了。
那这个结果还有什么多大意义呢?如果分析的是趋势就不一样了,如果结果是X=1组比X=0组Y随t增长快,我们就可以说t=1时,差别可能还看不出来,但差别就已经有了,当t=14时差别就非常明显了。
多重应答数据深度分析方法及其SPSS操作data发表于2015-05-25 21:37 来源:统计资源门户多重应答(Multiple Response),又称多选题,是市场调查研究中十分常见的数据形式。
多重应答数据本质上属于分类数据,但由于各选项均是对同一个问题的回答,之间存在一定的相关,将各选项单独进行分析并不恰当。
对多重应答数据最常见的分析是使用SPSS中的“Multiple Response”命令,通过定义变量集的方式,对选项进行简单的频数分析和交叉分析。
笔者认为,该分析方法对调查数据的开发利用往往是不够的,我们还可以使用其他分析方法对数据信息进行深度挖掘。
一、两种数据录入方式比如说在某次民意调查中,我们希望了解公众评价宜居城市时,到底是城市的哪一些特征决定人们对该城市宜居性的评估。
为此,我们在研究中设计了14项标准请被访者从中选出他们在进行宜居评价时最看重的5项标准(关于宜居标准的具体探讨,参见本刊2006年第8期)。
选项包括:这是一道典型的多重应答题。
统计软件中对多重应答的标准纪录方式有两种:(1)多重二分法(Multiple dichotomy method)。
对于多项选择题的每一个选项看作一个变量来定义。
0代表没有被选中,1代表被选中。
这样,多项选择题中有几个选项,就会变成有几个单选变量。
这些单选变量的选项都只有两个,即0或1。
比如在上述例子中,我们就可以设置14个单选变量,来标示某选项是否被选中;(2)多重分类法(Multiple category method)。
多项选择题中有几个选项,就定义几个单选变量。
每个变量的选项都一样,都和多项选择题的选项相同。
每个变量代表被调查者的一次选择,即纪录的是被选中的选项的代码。
如上述例子中,我们可以设置X1~X5共5个变量,每个变量的选项兼为从1到14的14项宜居标准。
很多情况下,当问卷中不限定被访者可选择的选项数量时,被调查者可能不会全部选项都选,因此在数据录入时,一般从这些变量的最前面几个变量开始录入,这样最后面几个变量自然就是缺失值。
多重比较(Multiple Comparisons)是统计学中的一种方法,用于在进行方差分析(ANOVA)或其他假设检验后,对多个均值之间的差异进行细致的比较,以确定哪些组之间的差异是显著的。
以下是多重比较的基本步骤:1.进行初步分析:o首先进行一个总体的统计分析,如单因素或双因素方差分析(One-way ANOVA或Two-way ANOVA),以确定是否存在至少两个组别之间均值的显著差异。
2.选择多重比较方法:o根据研究目的和样本大小,选择合适的多重比较方法。
常见的多重比较方法包括:▪LSD(Least Significant Difference)法▪Tukey’s HSD(Honestly Significant Difference)法▪Bonferroni校正▪Dunnett’s test(主要用于与对照组比较)▪Sidak校正▪Šidák校正▪Benjamini-Hochberg校正(用于控制假阳性率)3.计算比较:o应用选定的方法,对所有可能的组间比较进行计算,得出每一对比较的p值和置信区间。
4.调整显著性水平:o为了控制I型错误(假阳性)的发生概率,通常会对原始的显著性水平(如α=0.05)进行调整。
例如,如果进行了k个比较,可能需要将每个比较的显著性水平设定为α/k(如使用Bonferroni校正)。
5.解释结果:o根据调整后的显著性水平,解释每对比较的结果,指出哪些组之间的差异在统计上是显著的。
6.报告结果:o报告每一对比较的统计量、p值和结论,必要时可以绘制图表直观展示显著差异。
7.评估假设检验结果:o评估所有比较结果的整体一致性,以及是否符合研究的假设和目标。
请注意,多重比较可能导致假阳性率增加,因此选择合适的校正方法很重要。
同时,分析结果不仅要基于统计显著性,还要结合实际研究背景和意义进行解读。
统计师如何应对数据分析中的多重比较问题在数据分析的过程中,统计师常常会面临多重比较问题。
多重比较指的是在进行多个统计检验或比较时,由于进行多次检验,可能会出现假阳性结果的情况。
这就需要统计师采取一系列方法和策略来控制多重比较问题,确保统计结果的准确性和可靠性。
一、调整显著性水平对于多重比较问题,最常见的做法是调整显著性水平。
通常,我们常用的显著性水平是0.05,即5%的显著性水平。
然而,当需要进行多个比较时,简单地使用0.05的显著性水平可能会导致较高的假阳性率。
因此,统计师可以采用一些调整显著性水平的方法,如Bonferroni校正、False Discovery Rate(FDR)等。
这些方法能够有效地控制多重比较问题,降低假阳性率。
Bonferroni校正是一种常用的多重比较校正方法,它通过将显著性水平除以比较次数来调整显著性水平。
例如,如果我们需要进行10次比较,那么使用Bonferroni校正后的显著性水平就是0.05/10=0.005。
这样做可以大大降低假阳性率,但也会增加假阴性率。
因此,在选择调整显著性水平的方法时,需要综合考虑假阳性率和假阴性率的权衡。
二、采用多元分析方法除了调整显著性水平外,统计师还可以采用多元分析方法来处理多重比较问题。
多元分析方法能够将多个比较看作是一个整体,从而减少多个比较带来的假阳性问题。
常见的多元分析方法包括方差分析(ANOVA)、协方差分析(ANCOVA)等。
方差分析是一种常用的多元分析方法,它用于比较两个或多个组之间的均值差异。
通过将多个比较纳入到同一个模型中进行分析,可以有效地控制多重比较问题。
此外,方差分析还可以通过检验组间和组内变异的比例来评估各组之间的显著性差异。
协方差分析是一种在方差分析基础上进行扩展的方法,它可以用于比较两个或多个组之间的均值差异,同时考虑到其他变量的影响。
通过引入协变量,协方差分析能更准确地评估组间的显著性差异,从而提高统计结果的准确性和可靠性。
r语言的p.adjust函数-回复R语言是一种用于统计分析和数据可视化的编程语言,它提供了许多用于统计推断和假设检验的函数。
其中,p.adjust函数是一个常用的函数之一,用于对多重比较进行校正以控制错误发现率。
在本文中,我将一步一步地回答关于p.adjust函数的问题,并详细介绍其用法和背后的统计原理。
1. 什么是p.adjust函数?p.adjust函数是R语言中的一个函数,它用于校正p值,以控制多重比较所引入的错误发现率。
在进行多个统计假设检验时,如果不对p值进行校正,可能会导致错误地拒绝原假设或者原假设的偏差。
p.adjust函数通过应用不同的校正方法来纠正p值,常用的校正方法包括Bonferroni方法、Benjamini-Hochberg方法和Holm方法等。
2. p.adjust函数的基本用法是什么?p.adjust函数的基本用法如下:p.adjust(p, method = "p.adjust.method")其中,p是一个由多个未校正的p值组成的向量,method是一个字符串值,用于指定校正方法。
常用的校正方法包括"holm"、"hochberg"、"hommel"、"bonferroni"和"BH"等。
3. p.adjust函数支持哪些校正方法?p.adjust函数支持多种校正方法,常用的校正方法包括:- "holm":Holm校正方法。
该方法按照一种逐步的方式对p值进行排序和校正,以控制错误的发现率。
- "hochberg":Benjamini-Hochberg校正方法。
该方法按照一种逐步的方式对p值进行排序和校正,以控制错误的发现率,并允许在某些情况下提供更高的功效。
- "bonferroni":Bonferroni校正方法。
统计学中的多重比较与调整统计学中的多重比较和调整是一个重要的主题,它涉及到在多组数据之间进行比较时如何控制错误发现率。
在实际研究或实验中,我们常常需要同时比较多组数据,这样就增加了出现假阳性(即错误地拒绝零假设)的可能性。
为了解决这个问题,多重比较与调整方法应运而生。
一、多重比较方法多重比较方法是在比较多组数据时控制错误的方法。
常见的多重比较方法包括共同控制类型I错误发现率(Family-wise Error Rate, FWER)和控制逐比较错误发现率(False Discovery Rate, FDR)两种。
1. 共同控制FWER的方法共同控制FWER的方法的目标是尽量降低整体的错误发现率,其中最著名的方法是Bonferroni校正。
Bonferroni校正是最简单和最保守的调整方法之一,它将显著性水平除以比较数量来控制FWER。
虽然它控制了整体错误率,但对于大样本量或多组比较的情况下,可能导致过于保守的结果。
2. 控制FDR的方法控制FDR的方法主要用于大量比较的情况下,例如基因表达研究中的差异基因分析。
常见的FDR调整方法包括Benjamini-Hochberg方法和Benjamini-Yekutieli方法。
这些方法通过控制被错误发现的零假设的百分比来控制FDR。
二、调整方法的应用在实际应用中,根据研究设计和研究目的的不同,选择合适的调整方法非常重要。
下面以一个基因表达研究为例来说明不同调整方法的应用。
假设我们进行了一个基因表达研究,同时比较了10000个基因在两组样本中的表达差异。
我们的目标是找出显著差异的基因。
首先,我们进行t检验来比较每个基因在两组样本中的表达差异,并计算出每个基因对应的p值。
然后,我们可以选择控制FWER的Bonferroni校正方法来进行多重比较的调整。
假设我们设置显著性水平为0.05,由于有10000个基因进行比较,因此我们将显著性水平除以10000来得到每个基因的显著性水平,即0.05/10000=0.000005。
统计学中的多重比较方法统计学是一门研究数据收集、分析和解释的学科,广泛应用于各个领域。
在数据分析过程中,我们经常需要进行多重比较,以确定不同组之间的差异或者找出显著性结果。
本文将介绍统计学中常用的多重比较方法,帮助读者更好地理解和应用这些方法。
一、背景介绍多重比较是指在进行多个假设检验时,需要对每个比较的显著性水平进行调整,以控制整体错误率。
在实际应用中,如果不对多重比较进行调整,可能会导致过高的错误率,从而得出错误的结论。
因此,多重比较方法在统计学中具有重要的意义。
二、Bonferroni校正法Bonferroni校正法是最常见的多重比较方法之一。
该方法的基本思想是将显著性水平α除以比较的总数,得到每个比较的校正显著性水平。
例如,如果我们进行了10个比较,显著性水平设定为0.05,则每个比较的校正显著性水平为0.05/10=0.005。
通过这种方式,我们可以有效地控制整体错误率。
然而,Bonferroni校正法也存在一些限制。
首先,它假设所有比较之间是独立的,这在实际应用中并不总是成立。
其次,该方法可能会导致过于保守的结果,降低了检验的功效。
因此,在实际应用中,我们需要根据具体情况选择适当的多重比较方法。
三、Tukey HSD方法Tukey HSD(Honestly Significant Difference)方法是一种常用的多重比较方法,适用于方差分析(ANOVA)中的多个组之间的比较。
该方法通过计算平均差异的标准误差,得出每个比较的显著性水平。
与Bonferroni校正法相比,Tukey HSD方法具有更好的功效,同时也能控制整体错误率。
然而,该方法要求各组之间的方差齐性,并且对样本量的要求较高。
如果数据不满足这些假设,我们可以考虑使用其他的多重比较方法。
四、False Discovery Rate控制方法False Discovery Rate(FDR)控制方法是一种相对较新的多重比较方法,用于控制预期的错误发现率。
多重比较问题的统计解决方案在统计学中,多重比较问题是指在进行多组假设检验时,由于进行多次比较而增加了犯第一类错误(即错误地拒绝真实假设)的概率。
为了有效控制这种错误率,需要采取相应的统计解决方案。
本文将介绍多重比较问题的统计解决方案,包括Bonferroni校正、Tukey方法、False Discovery Rate(FDR)控制等方法。
Bonferroni校正是最常用的多重比较校正方法之一。
该方法通过将显著性水平(α)除以比较的总数来调整每个比较的显著性水平,从而控制整体的错误率。
例如,如果进行了10次比较,希望保持整体的显著性水平为0.05,则每个比较的显著性水平应为0.05/10=0.005。
Bonferroni校正的优点是简单易行,但缺点是可能会导致过于保守的结果。
Tukey方法是一种针对多重比较问题的统计方法,主要用于方差分析中的事后多重比较。
该方法通过计算各组均值之间的差异来确定哪些组之间存在显著差异。
Tukey方法的优点是能够同时比较所有组的均值,较为全面地了解各组之间的差异情况。
False Discovery Rate(FDR)控制是一种用于控制多重比较问题的方法,旨在控制被错误拒绝的假设中的错误发现率。
与传统的方法不同,FDR控制允许在一定程度上容忍错误的发现,以换取更多的真实发现。
这种方法在大规模假设检验中得到广泛应用,能够更好地平衡发现率和错误率之间的关系。
除了上述方法外,还有一些其他的多重比较校正方法,如Holm校正、Benjamini-Hochberg校正等,它们在不同的情境下具有各自的优势和适用性。
研究人员在选择多重比较校正方法时,需要根据具体的研究设计、数据特点和研究目的来进行选择,以获得准确可靠的统计结果。
总的来说,多重比较问题在统计学研究中是一个重要且常见的问题,合理有效地解决多重比较问题对于保证研究结论的可靠性至关重要。
研究人员应当根据具体情况选择合适的多重比较校正方法,并在研究设计阶段就考虑如何控制多重比较带来的错误率,以确保研究结果的科学性和可靠性。
统计学中的多重比较方法统计学的研究领域中,多重比较方法是一种强大的工具,用于在研究中探索多个群体或处理之间的差异。
多重比较方法的主要目标是避免在进行统计推断时产生错误的结论。
本文将介绍统计学中常见的多重比较方法,包括Bonferroni校正、Dunnett校正和Tukey-Kramer校正。
1. Bonferroni校正Bonferroni校正是一种广泛使用的多重比较方法,其原理是将显著性水平按照进行比较的数量进行调整。
假设我们进行了m个比较,原始的显著性水平为α,则在Bonferroni校正下,每个比较的显著性水平将调整为α/m。
这样可以保护整体显著性水平,降低错误发现的概率。
但是,Bonferroni校正可能导致统计功效降低,因此需要权衡研究设计和显著性水平的设置。
2. Dunnett校正Dunnett校正是一种特定的多重比较方法,适用于对一个处理组进行多个处理间比较的情况。
与Bonferroni校正不同,Dunnett校正通过将每个比较与一个参照组进行比较,降低了错误发现的概率。
具体而言,Dunnett校正通过在比较中引入一个额外的自由度,来调整每个比较的显著性水平。
这种方法在医学研究和实验设计中经常被使用。
3. Tukey-Kramer校正Tukey-Kramer校正是一种用于多个群体间比较的方法,可以有效控制类型I错误的产生。
在Tukey-Kramer校正下,每个比较的显著性水平将根据一种修正的公式进行调整。
与Bonferroni校正类似,Tukey-Kramer校正能够提供更具吸引力的结果,但也可能降低统计功效。
这种方法主要应用于方差分析(ANOVA)和多元分析(MANOVA)等统计方法。
总结统计学中的多重比较方法是研究设计和结果分析中重要的一环。
通过对多个群体或处理进行比较,可以提供更全面的信息和洞察,并减少错误的结论。
本文介绍了三种常见的多重比较方法,包括Bonferroni校正、Dunnett校正和Tukey-Kramer校正。
统计学p的名词解释引言统计学是一门研究数据收集、分析和解释的学科,它在各个领域中都有着广泛的应用。
在统计学中,p值是一项重要的指标,用于评估观察到的数据与假设之间的差异。
本文将对统计学中p值的概念、计算方法以及其在实践中的应用进行详细解释。
1. p值的定义p值是指观察到数据或更极端情况出现的概率,当原假设为真时,根据样本数据计算得出。
通常情况下,我们会将p值与事先设定好的显著性水平进行比较,以判断是否拒绝原假设。
2. p值的计算方法在大多数情况下,我们通过以下步骤来计算p值:1.建立原假设(H0)和备择假设(H1)。
2.根据原假设,确定一个适当的统计检验方法。
3.收集样本数据,并根据所选检验方法进行分析。
4.计算得到检验统计量。
5.根据检验统计量和原假设,确定p值。
3. p值与显著性水平显著性水平是在进行统计假设检验时所设定的一个阈值,用于判断是否拒绝原假设。
常见的显著性水平有0.05和0.01两种,分别对应5%和1%的错误接受原假设的风险。
当p值小于显著性水平时,我们通常会拒绝原假设。
需要注意的是,p值并不直接提供关于效应大小或实际重要性的信息,它只是用来评估观察到的数据与原假设之间是否存在差异。
4. p值的解释和应用p值的解释取决于具体的研究问题和领域。
根据p值的大小和显著性水平进行比较,可以得出以下结论:•当p值小于显著性水平时(通常为0.05),我们可以拒绝原假设,并认为观察到的数据与原假设存在差异。
•当p值大于等于显著性水平时,我们无法拒绝原假设,并不能得出观察到的数据与原假设之间存在差异的结论。
在实践中,p值经常被用来判断研究结果是否具有统计学意义。
例如,在医学研究中,如果一种新药的治疗效果的p值小于0.05,我们可以认为该药物对患者的治疗效果是显著的。
此外,p值还可以用于比较不同组之间的差异。
例如,在教育领域中,我们可以使用p值来比较不同学校或教育方法对学生成绩的影响。
5. p值的限制和注意事项在使用p值时,需要注意以下几个限制和注意事项:•p值只提供了关于样本数据与原假设之间差异的信息,并不能确定因果关系。
矫正p值的方法P值是一项统计学检验中的重要参数,它代表的是在零假设下,实际观察到的差异或者联系的极端程度。
通过对这个P值的判断,我们可以得出某个实验结果的置信度和显著性。
然而,P值并不是完全可靠的,因为它受到样本数量、误差、假设的先验概率等多种因素的影响。
因此,为了确保结果的准确性,研究者需要对P值进行矫正。
矫正P值的方法有很多种,下面我将介绍几种常见的方法:1. Bonferroni校正Bonferroni校正是最为严格的方法之一,通常用于多重比较中。
它的基本思想是将实际显著性水平$a$除以比较次数$N$,得到校正后的显著性水平,如果一个变量的P值低于校正后的显著性水平,则认为该变量显著。
这种方法的优点是保守性强,容易控制假阳性率,但缺点是容易造成假阴性率的提高。
2. Benjamini-Hochberg校正Benjamini-Hochberg校正是其中一种被广泛使用的方法,它是基于FDR(False Discovery Rate)进行多重比较的。
它的基本思想是对所有的P值进行排序,然后计算排名比P值小的那些变量的FDR值。
如果一个变量的FDR小于某个预设的阈值,则认为该变量显著。
这种方法的优点是具有较高的敏感性,但假阳性率相对较高。
3. Holm-Bonferroni校正Holm-Bonferroni校正是基于Bonferroni方法的改进版本,它还可以进行任意顺序的多重比较。
具体操作是对所有的P值进行排序,然后按照排序的顺序依次计算校正因子。
如果一个变量的P值小于该变量在排序后对应的校正因子,则认为该变量显著。
这种方法的优点是灵活性强,适用范围广泛,但相应地也容易产生假阴性率的增加。
总之,对于研究者而言,选择哪种矫正P值的方法要看具体情况,不能一概而论。
在实践中,应该根据研究目的、样本量、假设的先验概率等因素进行选择,以确保结果的可靠性和科学性。
如何优雅地校正多重检验的p值?组学派的大家庭越来越热闹,派派也是干劲满满!作为一个公益服务性的平台,为组学战友们排忧解难始终是派派小组至高无上的责任和追求!更加要庆贺的是加入派派的小伙伴越来多,我们有了总群,还有了总群2号(二维码见文末),还有各个分群。
我们有了新的LOGO,相信omicsPie会越来越好!上周,群里酷爱科研的大佬们对差异性分析结果p value的校正问题掀起了热情洋溢的民主大讨论。
既然问题出现了,那么这宝贵的科普机会派派又怎么能够放过,今天就让苯宝宝系统地为大家梳理一下有关False Positive(假阳性)的前生今世,为后入的小伙伴们点亮这盏指坑。
啊,不,脱坑明灯。
一、什么是False positive(假阳性)?提及假阳性,不得不从统计假设检验的两类错误讲起。
第一类错误(Type I error),就是原假设H0成立(也就是检验的两组之间没有差别),但是统计结果却显示拒绝原假设(可以理解为结果p<0.05),这样就得到了“假”的“阳性”结果。
相应的第二类错误(Type II error),则是原假设H0不成立(也就是检验的两组之间有差别,是不同的),但是统计结果却显示接受原假设(可以理解为结果p>0.05),这样就得到了“假”的“阴性”结果。
今天,我们主要谈一谈“假阳性”。
关于“假阴性”和“把握度”的问题,下次咱们再接着聊。
二、假阳性是如何产生的?科学研究中,研究者往往很难得到全部的研究对象的实验数据,所以随机抽样、统计推断的思想贯穿于实验设计的始终。
既然样本是从总体中抽出来的,即使是随机化做得非常好,依然难免会存在抽样误差,导致抽样数据的随机波动,不能完全准确地反应总体的数据水平。
这种情况下,很显然,即使是从同一个总体中反复抽样,也有机会得到样本之间的差异经统计学检验p<0.05的结果(如图1)。
因此,不难得到这样的结论:假阳性结果会随着抽样次数、比较次数的增多而大量出现。
多重假设检验中的p值校正PublicLibraryofBioinformatics在生物学特别是基因组学的研究工作中,经常会遇到多重假设检验(multiple testing)的问题;此时,得到的原始p值需要进行校正后才能使用,那么哪种校正方法更加适合自己的研究工作呢?p-values, false discovery rates(FDR) 和q-values有什么不同?它们分别代表什么意义?对于统计科班的同学来说,这不过是小菜一碟;但对于纯生物出身的同学来说,别说去看公式了,光是听听就觉得头大!不过幸运的是,有牛人(William S Noble)了解我们的苦衷,于是一篇nature biotechnology的文章诞生了——《How does multiple testing correction work?》。
这片文章不长,只有3页,用不了多长时间就可以看完。
更加令人高兴的是,全篇没有一个让人头大的公式;了解基本的统计学知识、特别是p值的相关概念之后,阅读这片文章就不会有太大的困难了。
作者以一个生物学例子贯穿全篇,这个例子对于大多数生物专业的同学来说都非常容易理解——在人的21号染色体上寻找CTCF(一个高度保守的锌指DNA结合蛋白)的潜在结合位点。
作者先介绍了零假设(null hypothesis),进而引出了p-value的概念。
之后,解释了为什么原始p值不能够直接使用,从而过渡到p值校正的话题。
在这一部分,作者层层深入,以简洁明了的语言介绍、解释了Bonferroni adjustment、false discovery rate (FDR)、q-value和local FDR的概念、由来、意义等基本但非常重要的知识。
最后作者给出了实际应用时的指导建议,并以点睛之笔概括总结了全文中的要点。
如果你的工作涉及p值的校正、FDR、q值等概念,这篇文章绝对胜任引你入门的角色(但绝不仅限于此!)。
多重检验校正在浅探富集分析中的超几何分布中我们谈到了通过p值大小来确定富集到的基因的显著性,但是p值终归是人定的,我们不能说定下p值以后小于p值得结果就都是正确的,这里p值小只是代表假阳性概率小,但并非真的就一定是对的。
p=0.05意味着我们检验1次犯错的概率为5%;但是倘若我们检验次数多达10000次,那么犯错的概率将多达500多次。
这里虽然犯错的概率没变(5%),但是随着检验次数的增多,我们犯错的次数也实实在在的增多了。
因此就需要多重检验校正来减低假阳性的次数。
1、多重检验校正方法1.1 Bonferroni校正Bonferroni是最简单严厉的方法,他直接将阈值降到极低来减少假阳性率。
例如:同为检验10000次,阈值为5%时犯错次数依然会有多达500次;然而,当我们把阈值提高到5%/10000时,即便检验10000次,犯错次数依然不到一次。
Bonferroni校正阈值的公式为:p*(1/n),p为普通的阈值,n为检验次数。
虽然,降低阈值能非常直接的减低假阳性概率,但同时也过于严厉,极有可能将真正的阳性结果,也即我们想要的结果也给筛掉了。
1.2 FDR (False Discovery Rate)校正FDR(False Discovery Rate)用比较温柔的方法调整,试图在假阳性和假阳性间达到平衡(即,不是不让假阳性出现,只是将假/真阳性比例控制在一定范围内)。
FDR的目标是试图得到一个校正后的阈值,来实现:在发现的差异结果中,假阳性控制在极低比例;例如,检验10000次,无论我们得到多少差异基因,能不能保证其中定性为差异基因结果中,错误率在5%以内。
如果找到差异基因100个,我能做到拍着胸脯说:“假的差异基因不多于5个”。
这就叫FDR< 5%。
有多种模型用来从p-value估算FDR值,其中使用的最多的是Benjaminiand Hochberg的方法,简称BH法。
BH法虽然不够精确,但是简单好用。
矫正p值的方法1. 引言在统计学中,假设检验是用于判断样本数据与研究假设之间是否存在显著性差异的一种方法。
而p值是用于衡量统计显著性的指标,通常情况下,当p值小于0.05时,我们会认为结果具有统计显著性。
然而,由于多重比较问题的存在,p值可能会被过高估计,从而导致错误的结论。
因此,对于多重比较问题,我们需要对p值进行矫正,以确保结果的准确性和可靠性。
2. 多重比较问题在实际研究中,我们常常需要进行多次假设检验,例如比较不同组之间的差异或多个变量之间的相关性。
然而,如果我们使用传统的p值阈值(通常为0.05)来进行判断,就会增加犯错误的概率。
这是因为多次假设检验可能导致即便在所有假设都为真的情况下,也会有一部分测试产生错误的显著性结果。
这种现象被称为多重比较问题。
3. 常见的多重比较矫正方法为了解决多重比较问题,研究人员发展了多种多重比较矫正方法。
下面我们将介绍几种常见的方法。
3.1. Bonferroni校正Bonferroni校正是最常见也是最简单的一种多重比较矫正方法。
它基于Bonferroni原理,在进行多次假设检验时将p值阈值除以假设的总数量。
3.2. Holm法Holm法是一种顺序择优法,先对p值进行排序,然后按顺序逐个进行递增的p值校正。
具体而言,第i个p值的校正值为:校正值 = min((m-i+1) * p值),其中m为假设的总数量。
3.3. Benjamini-Hochberg方法Benjamini-Hochberg方法控制的是False Discovery Rate(FDR),它是指错误拒绝的假设数量占所有被拒绝的假设数量的比例。
该方法首先对p值进行排序,然后按照FDR的控制程度,选择一个阈值,将所有p值小于该阈值的假设都当作拒绝原假设。
4. 如何选择适当的多重比较矫正方法在实际应用中,选择适当的多重比较矫正方法是非常重要的。
下面我们将介绍一些选择方法的准则。
4.1. 独立性不同的矫正方法在假设的独立性上有不同的要求。
p值校正方法什么是p值校正方法?在统计学中,p值校正方法是一种用于修正多重比较问题的统计技术。
在进行多个统计假设检验时,如果不进行校正,就会增加犯错误的概率。
p值校正方法的目的是降低这种错误率,以保证统计结果的可靠性和准确性。
为什么需要p值校正方法?在进行多个假设检验时,比如对多个变量进行统计分析或者比较多个组之间的差异,如果每个检验的显著性水平都设定为相同的阈值(比如α=0.05),那么由于多重比较的问题,就会出现假阳性(即错误地拒绝了真无效假设)的情况。
这会导致结果的误导和不可靠性。
为了解决多重比较问题,p值校正方法通过对原始的p值进行修正,调整统计显著性水平,以减少犯错误的概率。
这样可以更准确地评估统计结果的可靠性,避免过度解读或错误的结论。
常见的p值校正方法1. Bonferroni校正Bonferroni校正是最常见和简单的p值校正方法之一。
它通过将显著性水平(α)除以进行比较的总数(m),得到每个比较的临界显著性水平(α/m)。
然后,将原始的p值与临界显著性水平进行比较,以确定是否拒绝原始假设。
Bonferroni校正方法的优点是简单易行,适用于各种情况。
然而,它也存在一些限制,比如在多重比较较多时,可能会导致过于保守的结果。
2. 奈曼-肯德尔方法(Nemenyi-Kendall方法)奈曼-肯德尔方法是一种非参数的p值校正方法,适用于多组间的多重比较。
它基于多个Wilcoxon秩和检验的组合,对原始p值进行校正。
奈曼-肯德尔方法在控制多重比较错误的同时,能够提供更多的信息,比如识别出具体哪些组之间存在显著差异。
这使得它在实际应用中得到了广泛的应用。
3. False Discovery Rate(FDR)False Discovery Rate(FDR)是一种用于控制多重比较错误的统计方法。
与传统的p值校正方法不同,FDR方法关注的是发现假阳性的比例,而不是控制整体的错误率。
FDR方法通过计算每个比较的q值来实现多重比较的校正。
随机交换法计算多重比较校正的P值
校正多重检验P值的Bonferroni法是根据检验的次数降低显着性水平,对于M个独立的检验,临界显着性水平可以设定为0.05 / M。
这里的关键是M个独立的检验,通常我们的数据对多个应变量或多个自变量进行的多重比较,这些应变量之间或自变量之间相互有一定的相关性,不是完全独立的。
因此用Bonferroni法过于保守。
随机交换(permutation)方法是把数据(应变量或自变量)打乱,相当于重新洗牌,然后随机分配给每个观察对象,产生一个新的数据。
如果原数据是M 个自变量对某一个应变量(Y)的分析,则对该应变量(Y)进行随机交换;如果原数据是M个应变量对某一个自变量(X),则对该自变量(X)进行随机交换。
随机交换后的数据,理论上自变量与应变量之间是没有联系的,对该数据做相应的统计检验(M个比较),提取多重比较(M个比较)得出的最小的P值,重复上述步骤N次(通常1000次),得出N个多重比较(M个比较)最小的P值,构建最小P值的经验频率分布。
然后把从实际数据计算出来的P值与该分布进行比较,以确定一个经验校正的P值。
参考文献:
1.Davison, A. C. & Hinkley, D. V. Bootstrap Methods and Their
Application (Cambridge Univ. Press, 1997)
2.North, B. V., Curtis, D. & Sham, P. C. A note on calculation of
empirical P values from Monte Carlo procedure. Am. J. Hum. Genet.
72, 498–499 (2003).
模块说明:
1)应变量可以是连续性或分类型的,分布类型可以是gaussian, binomial, ordinal, poisson。
应变量还可以是依赖时间的生存状态(0/1 变量),分析模型用的是cox生存分析模型。
2)该模块适用于有内部相关性的家系数据,使用GEE调整内部相关性。
3)该模块对分类型的自变量会自动设置哑变量分析。
例:一个病例对照研究分析了22个SNP位点与疾病的关系。
用随机交换法计算经验P值。
数据输入界面:
输出结果如下:
随机交换法(permutation)计算多重比较校正的经验P值
Distribution of empirical p value
注释: 对应变量: CACO.NEW 进行了随机交换。