T检验、F检验和统计学意义,想了解显著性差异的也可以来看
- 格式:doc
- 大小:18.00 KB
- 文档页数:5
显著性检验——t检验
⾃⼰对t检验的⼀些理解:
样本平均数⽐较:
⽐较两个样本之间的差异,⼀般会⽐较样本的平均数,然⽽样本的平均数差异不⼀定代表了全体的平均数差异
样本平均数差异:
⼜称为试验的表⾯效应,来源于以下两个⽅⾯:
1.试验差异(抽样差异)
2.全体的平均数真正存在差异
显著性检验⼜叫做假设检验,有很多检验⽅法如:t检验、F检验和卡⽅检验等
t检验:
概念:
⽤来检验表⾯效应是否属于试验差异,如果属于试验差异,则两组样本所代表的全体差异不⼤;如果不属于试验差异,则两组样本所代表的全体差异明显
依据:
判定接受或否定⽆效假设的依据是“⼩概率事件实际不可能性原理”
适⽤范围:
两组样本⽐较,每组样本量⼩于30,包括独⽴样本和配对样本
1.独⽴样本:不同组参与者之间的⽐较
2.配对样本:同⼀组参与者在两种不同产品或设计上的数据
名词解释:
1.⽆效假设:
假设两组全体的平均数相同,即样本平均数差异来⾃试验差异
2.P值:
表⽰这种⽆效假设的概率
3.显著⽔平α值:
⽤来衡量接受或否定⽆效假设的标准依据,⼀般定为0.05或0.01,具体值依据多种因素,如试验过程中的影响要素多少、对试验精度要求程度等
a、如果P<α,说明⽆效假设的概率较⼩,不可能发⽣,所以样本平均数差异不来⾃试验差异,两组数据差异明显
b、反之,说明⽆效假设的概率较⼤,所以样本平均数差异来⾃试验差异,两组数据⽆明显差异。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
spss结果中,F值,t值及其显著性sig的解释SPSS 结果中,F 值、t 值及其显著性 sig 的解释在进行数据分析时,尤其是运用 SPSS 这样的统计软件,我们常常会遇到 F 值、t 值以及显著性 sig 这些概念。
对于初学者来说,理解它们可能会有些困难,但一旦掌握,就能更好地解读数据和得出有意义的结论。
首先,咱们来说说F 值。
F 值通常出现在方差分析(ANOVA)中。
简单来讲,方差分析是用来比较两个或多个组的均值是否有显著差异。
那么 F 值是怎么来的呢?它其实是组间变异与组内变异的比值。
组间变异反映的是不同组之间的差异,组内变异则反映的是每组内部的差异。
如果F 值较大,就意味着组间变异相对于组内变异来说比较大,这就暗示着不同组的均值很可能存在显著差异。
举个例子,假设我们想研究不同教学方法对学生成绩的影响。
我们把学生分成三组,分别采用方法 A、方法 B 和方法 C 进行教学。
通过计算,得到了一个 F 值。
如果这个 F 值很大,那就说明这三种教学方法导致的学生平均成绩很可能是不一样的。
接下来,咱们聊聊 t 值。
t 值常见于 t 检验中,t 检验主要用于比较两组数据的均值是否有差异。
比如说,我们想知道男生和女生在某门课程上的平均成绩是否不同,这时候就可以用 t 检验。
计算得出的 t 值反映了两组均值差异的大小。
t 值的大小与两组均值的差异以及样本的标准差有关。
如果 t 值较大,就说明两组均值的差异在统计上很可能是显著的。
那什么是显著性 sig 呢?显著性 sig 其实就是用来判断我们观察到的差异到底是真实存在的,还是仅仅由于随机因素造成的。
通常,我们会设定一个显著性水平,比如 005 或者 001。
如果 sig值小于我们设定的显著性水平,就说明差异是显著的;反之,如果 sig值大于设定的显著性水平,就说明差异不显著,可能只是随机误差导致的。
比如说,我们得到的 sig 值是 003,而我们设定的显著性水平是 005,那么这就意味着我们观察到的差异是具有统计学意义的,不是偶然发生的。
T检验-F检验-单因素分析《》配对t检验的目的是检验两个样本均数所代表的未知总体均数是否有差别1,T检验和F检验的由来一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
2,统计学意义(P值或sig值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
p值是将观察结果认为有效即具有总体代表性的犯错概率。
如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。
(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。
)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。
3,T检验和F检验至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t 检验。
统计中经常会用到各种检验, 如何知道何时用什么检验呢, 根据结合自己的工作来说一说:之欧侯瑞魂创t检验有单样本t检验, 配对t检验和两样本t检验.单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比力, 来观察此组样本与总体的不同性.配对t检验:是采纳配对设计方法观察以下几种情形, 1, 两个同质受试对象分别接受两种分歧的处置;2,同一受试对象接受两种分歧的处置;3, 同一受试对象处置前后.u检验:t检验和就是统计量为t,u的假设检验, 两者均是罕见的假设检验方法.当样本含量n较年夜时, 样本均数符合正态分布,故可用u检验进行分析.当样本含量n小时, 若观察值x符合正态分布, 则用t检验(因此时样本均数符合t分布), 当x为未知分布时应采纳秩和检验.F检验又叫方差齐性检验.在两样本t检验中要用到F检验.从两研究总体中随机抽取样本, 要对这两个样本进行比力的时候, 首先要判断两总体方差是否相同, 即方差齐性.若两总体方差相等,则直接用t检验, 若不等, 可采纳t'检验或变量变换或秩和检验等方法.其中要判断两总体方差是否相等, 就可以用F检验.简单的说就是检验两个样本的方差是否有显著性不同这是选择何种T检验(等方差双样本检验, 异方差双样本检验)的前提条件.在t检验中, 如果是比力年夜于小于之类的就用单侧检验, 即是之类的问题就用双侧检验.卡方检验是对两个或两个以上率(构成比)进行比力的统计方法, 在临床和医学实验中应用十分广泛, 特别是临床科研中许多资料是记数资料, 就需要用到卡方检验.方差分析用方差分析比力多个样本均数,可有效地控制第一类毛病.方差分析(analysis of variance,ANOVA)由英国统计学家R.A.Fisher首先提出, 以F命名其统计量, 故方差分析又称F检验.其目的是推断两组或多组资料的总体均数是否相同, 检验两个或多个样本均数的不同是否有统计学意义.我们要学习的主要内容包括单因素方差分析即完全随机设计或成组设计的方差分析(oneway ANOVA):用途:用于完全随机设计的多个样本均数间的比力, 其统计推断是推断各样本所代表的各总体均数是否相等.完全随机设计(completely random design)不考虑个体差此外影响, 仅涉及一个处置因素, 但可以有两个或多个水平, 所以亦称单因素实验设计.在实验研究中按随机化原则将受试对象随机分配到一个处置因素的多个水平中去, 然后观察各组的试验效应;在观察研究(调查)中按某个研究因素的分歧水平分组, 比力该因素的效应.两因素方差分析即配伍组设计的方差分析(twoway ANOVA):用途:用于随机区组设计的多个样本均数比力, 其统计推断是推断各样本所代表的各总体均数是否相等.随机区组设计考虑了个体差此外影响, 可分析处置因素和个体不同对实验效应的影响, 所以又称两因素实验设计, 比完全随机设计的检验效率高.该设计是将受试对象先按配比条件配成配伍组(如植物实验时, 可按同窝别、同性别、体重相近进行配伍), 每个配伍组有三个或三个以上受试对象, 再按随机化原则分别将各配伍组中的受试对象分配到各个处置组.值得注意的是, 同一受试对象分歧时间(或部位)重复屡次丈量所获得的资料称为重复丈量数据(repeated measurement data), 对该类资料不能应用随机区组设计的两因素方差分析进行处置, 需用重复丈量数据的方差分析.方差分析的条件之一为方差齐, 即各总体方差相等.因此在方差分析之前, 应首先检验各样本的方差是否具有齐性.经常使用方差齐性检验(test for homogeneity of variance)推断各总体方差是否相等.本节将介绍多个样本的方差齐性检验, 本法由Bartlett于1937年提出, 称Bartlett法.该检验方法所计算的统计量服从分布.经过方差分析若拒绝了检验假设, 只能说明多个样本总体均数不相等或不全相等.若要获得各组均数间更详细的信息, 应在方差分析的基础上进行多个样本均数的两两比力.创作时间:二零二一年六月三十日。
spss结果中,F值,t值及其显著性(sig)的解释用spss处理完数据的显示结果中,F值,t值及其显著性(sig)都分别是解释什么的?一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?为此,我们进行t检定,算出一个t检定值,与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。
虽然还是有5%机会出错,但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
P值的意义:有显著性差异统计学意义(P值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
专业上,P值为结果可信程度的一个递减指标,P值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
P值是将观察结果认为有效即具有总体代表性的犯错概率.如P=0。
05提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。
(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。
)在许多研究领域,0.05的P值通常被认为是可接受错误的边界水平.如何判定结果具有真实的显著性在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。
换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性.实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两〉比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例.通常,许多的科学领域中产生P值的结果≤0。
05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。
结果0。
05≥P〉0。
01被认为是具有统计学意义,而0.01≥P≥0.001被认为具有高度统计学意义。
但要注意这种分类仅仅是研究基础上非正规的判断常规.所有的检验统计都是正态分布的吗?并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。
这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。
许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。
当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验).这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活.另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。
P值的意义:有显著性差异统计学意义(P值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
专业上,P值为结果可信程度的一个递减指标,P值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
P值是将观察结果认为有效即具有总体代表性的犯错概率。
如P=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。
(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。
)在许多研究领域,0.05的P值通常被认为是可接受错误的边界水平。
如何判定结果具有真实的显著性在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。
换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。
实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。
通常,许多的科学领域中产生P值的结果≤0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。
结果0.05≥P>0.01被认为是具有统计学意义,而0.01≥P≥0.001被认为具有高度统计学意义。
但要注意这种分类仅仅是研究基础上非正规的判断常规。
所有的检验统计都是正态分布的吗?并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。
这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。
许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。
当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。
T检验与F检验的区别水のような2014-11-22 16:44:121,T检验和F检验的由来一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。
倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。
相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。
统计显著性(sig)就是出现目前样本这结果的机率。
2,统计学意义(P值或sig值)结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。
专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。
p值是将观察结果认为有效即具有总体代表性的犯错概率。
如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。
(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。
)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。
3,T检验和F检验至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们
会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布
(probability distribution)进行比较,我们可以知道在多少%的机会下会得到
目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会
很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有
统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null
hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便
不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分
布。统计显著性(sig)就是出现目前样本这结果的机率。
2,统计学意义(P值或sig值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,
p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的
关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代
表性的犯错概率。如p=提示样本中变量关联有5%的可能是由于偶然性造成的。
即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中
有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是
说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量
存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研
究领域,的p值通常被认为是可接受错误的边界水平。
3,T检验和F检验
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t
检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推
论至总体,代表总体的情况也是存在著差异呢?
会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不
同?
为此,我们进行t检定,算出一个t检定值。
与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看
在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如<(少於5%机率),亦即是说,「如果」总体「真的」
没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本
的情况。虽然还是有5%机会出错=5%),但我们还是可以「比较有信心」的说:
目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总
体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
每一种统计方法的检定的内容都不相同,同样是t-检定,可能是上述的检定总
体中是否存在差异,也同能是检定总体中的单一值是否等於0或者等於某一个数
值。
至於F-检定,方差分析(或译变异数分析,Analysis of Variance),它的原理
大致也是上面说的,但它是透过检视变量的方差而进行的。它主要用于:均数差
别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互
作用、方差齐性(Equality of Variances)检验等情况。
3,T检验和F检验的关系
t检验过程,是对两样本均数(mean)差别的显著性进行检验。惟t检验须知道两
个总体的方差(Variances)是否相等;t检验值的计算会因方差是否相等而有所
不同。也就是说,t检验须视乎方差齐性(Equality of Variances)结果。所以,
SPSS在进行t-test for Equality of Means的同时,也要做Levene's Test for
Equality of Variances 。
1.
在Levene's Test for Equality of Variances一栏中 F值为, Sig.为.128,
表示方差齐性检验「没有显著差异」,即两方差齐(Equal Variances),故下面
t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。
2.
在t-test for Equality of Means中,第一排(Variances=Equal)的情况:t=,
df=84, 2-Tail Sig=.000, Mean Difference=
既然Sig=.000,亦即,两样本均数差别有显著性意义!
3.
到底看哪个Levene's Test for Equality of Variances一栏中sig,还是看
t-test for Equality of Means中那个Sig. (2-tailed)啊?
答案是:两个都要看。
先看Levene's Test for Equality of Variances,如果方差齐性检验「没有显
著差异」,即两方差齐(Equal Variances),故接著的t检验的结果表中要看第
一排的数据,亦即方差齐的情况下的t检验的结果。
反之,如果方差齐性检验「有显著差异」,即两方差不齐(Unequal Variances),
故接著的t检验的结果表中要看第二排的数据,亦即方差不齐的情况下的t检验
的结果。
4.
你做的是T检验,为什么会有F值呢?
就是因为要评估两个总体的方差(Variances)是否相等,要做Levene's Test for
Equality of Variances,要检验方差,故所以就有F值。
另一种解释:
t检验有单样本t检验,配对t检验和两样本t检验。
单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来
观察此组样本与总体的差异性。
配对t检验:是采用配对设计方法观察以下几种情形,1,两个同质受试对象分
别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同一受试对
象处理前后。
F检验又叫方差齐性检验。在两样本t检验中要用到F检验。
从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两
总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,
可采用t'检验或变量变换或秩和检验等方法。
其中要判断两总体方差是否相等,就可以用F检验。
若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结
果,应用t检验的前提条件就是该组资料必须服从正态分布;若是配对设计,每
对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料
均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必
须在这样的前提下所计算出的t统计量才服从t分布,而t检验正是以t分布作
为其理论依据的检验方法。
简单来说就是实用T检验是有条件的,其中之一就是要符合方差齐次性,
这点需要F检验来验证。
如何判定结果具有真实的显著性
在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断
性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,
最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数
之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于
以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤被认为是统
计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果≥p>
被认为是具有统计学意义,而≥p≥被认为具有高度统计学意义。但要注意这种
分类仅仅是研究基础上非正规的判断常规。
所有的检验统计都是正态分布的吗
并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出
来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中
呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也
是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检
验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态
性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),
但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不
灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正
态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对
正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分
布形状趋于正态,即使所研究的变量分布并不呈正态。