分类数据处理的统计评析
- 格式:doc
- 大小:17.00 KB
- 文档页数:4
统计的数据整理与分析统计数据的整理与分析是一项重要的工作,通过对数据进行合理的整理和分析,我们可以得到有价值的信息,从而为决策提供科学依据。
本文将介绍统计数据的整理和分析步骤,并讨论如何有效地利用统计数据。
一、数据的整理数据的整理是统计工作的第一步。
在整理数据时,我们通常需要进行以下几个步骤:1. 数据的收集和选择:从多个渠道收集数据,并根据统计目的选择相关的数据,确保数据的准确性和可靠性。
2. 数据的清理:对收集到的数据进行清理,包括删除重复数据、处理缺失值、修正错误数据等,以确保数据的完整性和一致性。
3. 数据的分类和编码:根据统计需求,将数据按照一定的分类标准进行分类和编码,方便后续的数据分析和比较。
4. 数据的转换和计算:对原始数据进行转换和计算,如将数据转换成百分比、平均数、标准差等形式,以便后续的数据分析和比较。
二、数据的分析数据的分析是统计工作的核心部分,通过对数据的分析,我们可以揭示数据背后的规律和趋势,提取有价值的信息。
数据分析可以采用多种方法,下面是几种常用的数据分析方法:1. 描述性统计分析:通过计算数据的平均数、中位数、众数、标准差等指标,来描述数据的集中趋势、离散程度和分布情况。
2. 相关性分析:通过计算数据之间的相关系数,来分析它们之间的关联程度,从而了解它们的相互影响。
3. 统计推断分析:通过对数据的抽样和假设检验,来对总体特征进行推断,从而得到对总体的估计和推断。
4. 时间序列分析:通过对时间序列数据的分析,来揭示数据的季节性、趋势性和周期性等规律。
5. 分类分析:通过对数据进行分类和比较,来揭示不同分类变量之间的差异和关联。
三、有效利用统计数据在进行统计数据整理和分析之后,我们还需要有效地利用这些统计数据,以便为决策提供科学依据。
以下是几个有效利用统计数据的方法:1. 结果的可视化:通过图表、图形、表格等方式,将统计结果转化为直观、易于理解的形式,便于决策者和其他相关人员对数据进行分析和理解。
报告中的数据整理与统计分析方法导言:数据整理和统计分析是现代社会中广泛应用的技术手段,用于对大量数据进行梳理、分析和解读。
在报告撰写过程中,对数据进行整理和统计分析可以使报告更具说服力、可信度和实用性。
本文将从数据的整理、数据可视化、数据的描述统计分析、数据的推断统计分析、数据的回归分析和数据的生态分析六个方面,详细探讨报告中的数据整理与统计分析方法。
一、数据的整理在报告准备阶段,必须对原始数据进行整理,使其能够清晰、有效地传达所要表达的信息。
数据整理涉及到数据清洗、数据分类和数据编码等方面。
首先,要对原始数据进行清洗,删除重复、错误或无效的数据。
其次,根据需要把数据按照特定的分类标准进行分类,以便后续统计分析。
最后,对数据进行编码,为不同类别的数据赋予不同的符号、代码或编号,以便于整理和分析。
二、数据的可视化数据可视化是一种将数据以图表或图形的形式呈现的方法,能够有效地传达信息、概括数据和揭示趋势。
常用的数据可视化方法包括数据表格、柱状图、折线图、散点图和饼图等。
数据表格可以清晰地展示数据的分类和统计结果,而图表能够更加直观地展示数据之间的关系和变化趋势。
在报告中,可以根据需要选择不同的可视化方式,使读者能够更好地理解和解读数据。
三、数据的描述统计分析描述统计分析是对数据进行整体和局部的概括和描述,以获取数据的基本特征和分布情况。
常用的描述统计指标包括平均值、中位数、众数、标准差和频数分布等。
其中,平均值用于表示数据的集中趋势,中位数用于表示数据的位置关系,众数用于表示数据的重复性,标准差用于表示数据的离散程度,频数分布用于表示数据的分布情况。
通过描述统计分析,可以对数据的整体特征有一个直观、准确的了解。
四、数据的推断统计分析推断统计分析是根据样本数据对总体数据做出估计、推断和判断的方法。
推断统计分析包括参数估计、假设检验和相关性分析等。
参数估计是通过样本数据来估计总体数据的一些未知参数,假设检验是通过对样本数据进行假设检验来判断总体数据是否满足某个假设,相关性分析用于研究和衡量两个或多个变量之间的关系。
统计报告的数据处理和解读随着信息时代的到来,各行各业都在不断产生大量的数据,而统计报告成为人们了解和分析这些数据的重要工具。
统计报告中的数据处理和解读直接影响着决策的准确性和科学性。
本文将从数据收集、数据处理、数据展示、数据解读等多个方面论述统计报告的数据处理和解读。
一、数据收集数据收集是进行统计报告的第一步,数据的质量和准确性对于后续的数据处理和解读至关重要。
数据收集过程中需要确保数据来源的可靠性和充分性,避免数据的偏倚和不完整。
同时,在数据收集的过程中,应该注重保护数据的隐私和安全,遵循相关法律法规,确保数据使用的合法性和合规性。
二、数据处理数据处理是将收集到的原始数据进行整理和清洗的过程,其目的是为了提高数据的可理解性和可分析性。
数据处理包括数据清洗、数据转换、数据归纳等环节。
数据清洗是去除数据中的异常值和缺失值,确保数据的准确性;数据转换是将数据进行格式转换和规范化,以便于后续的统计分析;数据归纳是将数据进行分类和汇总,提取出有用的信息。
三、数据展示数据展示是将处理后的数据以图表、报告等形式进行展示的过程,其目的是为了直观、清晰地呈现数据的特征和规律。
常见的数据展示方式包括折线图、柱状图、饼图等。
在数据展示过程中,应该注意选择合适的图表类型,避免图表的误导性和混淆性。
同时,数据展示还可以结合文字、标注和说明,对数据进行详细的解读和说明。
四、数据解读数据解读是根据统计报告中的数据,分析和推断数据背后的含义和实际意义。
数据解读需要考虑数据的背景和相关因素,避免片面和误导的解读。
数据解读还需要结合实际情况和专业知识,提出合理的建议和决策,帮助人们进行正确的决策和判断。
五、数据分析工具为了更好地进行数据处理和解读,人们可以借助各种数据分析工具。
数据分析工具可以帮助人们更高效、准确地进行数据处理和解读,提供更多的分析维度和功能。
常见的数据分析工具有Excel、SPSS、Python等。
在选择数据分析工具时,应根据实际需求和个人能力进行选择,合理利用工具的功能和特点,提升数据处理和解读的效率和准确性。
数据统计分析方法一、引言数据统计分析是通过对收集到的数据进行整理、描述、分析和解释,以获取有关现象和问题的信息和结论的方法。
在各个领域中,数据统计分析都扮演着重要的角色,可以帮助人们做出决策、发现规律、预测趋势等。
本文将介绍一些常用的数据统计分析方法。
二、描述统计分析方法1. 频数分析:对数据中各个取值出现的次数进行统计,可以通过频数分布表或频数分布图来展示。
2. 中心趋势测量:通过计算数据的均值、中位数和众数等指标来描述数据的集中趋势。
3. 离散程度测量:通过计算数据的标准差、方差和四分位差等指标来描述数据的离散程度。
4. 相关分析:用于研究两个或多个变量之间的关系,可以通过计算相关系数来衡量变量之间的相关性。
5. 分组统计分析:将数据按照某个特征或属性进行分组,然后对每个组别进行统计分析,比较不同组别之间的差异。
三、推断统计分析方法1. 抽样方法:通过从总体中随机选择一部分样本进行观察和测量,然后利用样本数据对总体进行推断。
2. 参数估计:通过样本数据对总体参数进行估计,常用的方法包括点估计和区间估计。
3. 假设检验:用于检验关于总体参数的假设,根据样本数据判断是否拒绝或接受原假设。
4. 方差分析:用于比较多个总体均值是否存在显著差异,根据样本数据进行方差分析并进行假设检验。
5. 回归分析:用于研究自变量和因变量之间的关系,通过建立回归模型来预测因变量的取值。
四、数据可视化方法1. 条形图:用于比较不同类别或组别之间的数量差异。
2. 折线图:用于展示数据随时间变化的趋势。
3. 散点图:用于展示两个变量之间的关系,可以判断是否存在相关性。
4. 饼图:用于展示各个类别在总体中的占比情况。
5. 箱线图:用于展示数据的分布情况,包括中位数、四分位数和离群值等。
五、数据分析软件1. Excel:常用的办公软件,提供了丰富的数据分析工具和函数,适用于简单的统计分析。
2. SPSS:专业的统计分析软件,提供了丰富的统计方法和模型,适用于复杂的数据分析。
数据统计分析方法一、引言数据统计分析是一种重要的数据处理和解读方法,它通过对数据进行采集、整理、分析和解释,匡助人们了解数据暗地里的规律和趋势,为决策提供科学依据。
本文将介绍常用的数据统计分析方法,包括描述统计、判断统计和多元统计分析。
二、描述统计描述统计是对数据进行总结和描述的方法,它通过计算和表示数据的中心趋势、离散程度和分布形态,揭示数据的基本特征。
常用的描述统计方法包括以下几种:1. 平均值:计算数据的平均数,可以反映数据的集中程度。
2. 中位数:将数据按大小排序,取中间的数值,可以排除极端值的影响。
3. 众数:浮现频率最高的数值,可以反映数据的分布情况。
4. 方差:衡量数据的离散程度,反映数据的波动情况。
5. 标准差:方差的平方根,可以度量数据的变异程度。
6. 百分位数:将数据按大小排序,取某个百分比位置上的数值,可以了解数据的分布情况。
三、判断统计判断统计是通过对样本数据进行分析和判断,判断总体数据的特征和参数。
它基于概率理论和统计模型,通过对样本数据的分析,判断总体数据的分布、关系和差异。
常用的判断统计方法包括以下几种:1. 参数估计:根据样本数据估计总体参数的值,包括点估计和区间估计。
点估计使用样本数据直接估计总体参数的值,区间估计给出总体参数的估计范围。
2. 假设检验:根据样本数据判断总体参数是否符合某个假设,包括单样本检验、双样本检验和方差分析等。
假设检验可以匡助我们判断样本数据是否能代表总体数据,以及总体数据之间是否存在差异。
3. 相关分析:研究两个或者多个变量之间的关系,包括相关系数和回归分析。
相关分析可以匡助我们了解变量之间的相关性和影响程度。
四、多元统计分析多元统计分析是对多个变量进行联合分析和解释的方法,它通过建立统计模型,研究多个变量之间的关系和影响。
常用的多元统计分析方法包括以下几种:1. 主成份分析:通过线性组合将多个相关变量转化为少数几个无关变量,降低数据维度,揭示变量之间的结构和关联。
数据的整理与统计分析方法数据的整理与统计分析是在科学研究、商业决策、社会调查等领域中非常重要的工作。
它们能够通过对大量数据的收集、整理和分析,揭示数据中的规律和趋势,为决策提供依据和支持。
在本文中,将介绍数据的整理与统计分析的方法,包括数据的清洗、描述统计分析和推论统计分析。
一、数据的清洗数据的清洗是数据整理与统计分析的第一步。
它主要是指对原始数据进行筛选、删除异常值、处理缺失值等操作,以确保数据的质量和可靠性。
清洗数据是为了去除数据中的噪声和干扰因素,使得后续的分析结果更准确和可靠。
常用的数据清洗方法包括:1.删除重复值:对于有重复数据的情况,需要将重复的数据删除,以保证每个数据都是独立的。
2.处理缺失值:对于存在缺失值的数据,可以选择删除含有缺失值的数据行,或者采用插补方法进行填充,以保证数据的完整性。
3.异常值处理:异常值是指与其他观测值相比显著偏离的数据点,可能是由于测量误差或者录入错误导致。
处理异常值可以选择删除或者替换,具体方法需要根据实际情况进行决策。
二、描述统计分析描述统计分析是通过统计方法对数据进行总结和描述,揭示数据的分布、趋势和变异性等特征。
它是对数据进行初步分析的重要手段,可以通过图表和概括性指标来展示和解释数据的特征。
常用的描述统计方法包括:1.测量数据的集中趋势:通过计算均值、中位数、众数等指标,描述数据的集中程度。
均值是所有数据之和除以观测值的总数,中位数是将数据按大小排列后的中间值,众数是出现频率最高的值。
2.测量数据的离散程度:通过计算标准差、方差、极差等指标,描述数据的离散程度。
标准差是数据离平均值的平均距离,方差是所有数据与均值之差的平方和的平均值,极差是数据的最大值减去最小值。
3.展示数据的分布特征:通过绘制直方图、饼图、散点图等图表,展示数据的分布情况。
直方图可以用来展示数据的频数分布,饼图可以用来展示数据的比例分布,散点图可以用来展示两个变量之间的关系。
垃圾分类数据收集与分析随着社会的发展和人们环保意识的增强,垃圾分类成为了一个热门话题。
垃圾分类不仅能减少环境污染,还可以实现资源的有效回收利用。
为了更好地推动垃圾分类工作,收集和分析垃圾分类数据具有重要意义。
本文将探讨垃圾分类数据的收集方法和分析过程,并分析其对垃圾分类政策的支持与指导作用。
一、垃圾分类数据收集方法垃圾分类数据的收集是垃圾分类工作中的关键一环。
以下是几种常用的垃圾分类数据收集方法:1. 调查问卷:设计垃圾分类相关的调查问卷,通过面对面或线上的方式进行调查。
问卷内容可以包括垃圾分类的认知情况、分类准确率、分类行为等方面的信息。
收集到的数据可以通过统计、分析和比较,反映不同地区、人群对于垃圾分类的态度和行为。
2. 定期抽样:在特定时间、地点抽取垃圾样本进行分类。
通过对抽样数据进行分析,可以了解垃圾分类的实施情况。
这种方法相对简单实用,但需要确保样本的代表性,避免数据的偏差。
3. 物联网技术:利用物联网技术,可以对垃圾分类容器进行实时监测。
通过传感器、智能设备等手段,记录垃圾分类的数据,如投放量、分类准确率等。
这种方法可以实现数据的自动化收集,并能够提供更为准确和全面的数据信息。
二、垃圾分类数据分析过程垃圾分类数据的分析是基于收集到的数据进行研究和推理,以揭示其中的规律和问题,为垃圾分类政策的制定提供决策依据。
下面是垃圾分类数据分析的一般过程:1. 数据清洗:对采集到的垃圾分类数据进行筛选、整理和清洗,排除错误数据和异常值,确保数据的准确性和可靠性。
2. 数据统计:通过统计学方法对清洗后的数据进行描述性统计。
可以计算各种垃圾类型的数量、比例,分析不同地区、时间段的垃圾分类情况。
还可以分析不同人群、不同容器的分类准确率等指标。
3. 数据关联:将垃圾分类数据与其他相关数据进行关联分析,探究垃圾分类与环境污染、资源利用等因素之间的关系。
例如,分析垃圾分类准确率与环境治理效果的相关性,或者垃圾投放量与资源回收率的相关性。
毕业论文的数据处理与统计分析数据处理与统计分析是毕业论文中不可或缺的重要环节。
通过对已收集到的数据进行处理和分析,可以帮助研究者揭示问题的本质,验证假设,得出科学的结论。
本文将介绍毕业论文中常用的数据处理方法和统计分析技术,并探讨它们的应用。
1. 数据处理方法1.1 数据清洗数据清洗是为了去除无效或错误数据,确保数据集的准确性和完整性。
在清洗过程中,可以采取以下措施:- 检查数据集中是否存在缺失值,若有,可以选择删除或填补缺失值。
- 检查数据集中是否存在异常值,如极端偏离正常范围的数值,可进行筛除或校正。
- 删除重复数据,避免重复计算对结果的干扰。
1.2 数据转化数据转化是将原始数据按照需求进行格式和单位的转换,方便后续的分析和计算。
常见的数据转化方法有:- 数据格式转换,如将日期格式转为时间戳格式。
- 单位转换,将不同度量单位的数据转化为统一的单位。
- 数据标准化,通过缩放或归一化等方法,使得数据具备可比性。
2. 统计分析技术2.1 描述性统计分析描述性统计分析是对数据进行整体的概括和描述,帮助研究者了解数据的分布和特征。
常用的描述性统计分析方法有: - 频数分析,统计各个类别的频次,绘制频数分布表或频数统计图。
- 中心趋势测量,包括均值、中位数和众数等,用来衡量数据的集中趋势。
- 离散程度测量,包括方差、标准差和极差等,反映数据的离散程度。
2.2 探索性数据分析(EDA)探索性数据分析是通过可视化和统计方法,从多个角度对数据进行探索,挖掘数据中的潜在模式和关系。
常用的EDA方法包括: - 散点图,用于展示两个变量之间的关系。
- 直方图,显示变量的分布情况。
- 箱线图,用于显示变量的分布和离群值情况。
- 相关性分析,研究变量之间的相关性。
2.3 推断统计分析推断统计分析是基于样本数据对总体进行推断的统计方法,通过对样本数据的分析,得出总体的推断结论。
常用的推断统计分析方法有:- 参数估计,通过样本统计量对总体参数进行估计,如置信区间估计。
如何进行科学合理的数据处理和统计分析在进行科学合理的数据处理和统计分析时,需要遵循一系列步骤和方法,以确保数据的准确性和可靠性。
以下将介绍如何进行科学合理的数据处理和统计分析。
一、数据处理步骤1. 数据收集:收集与研究主题相关的原始数据。
可以通过实地观察、实验设计、问卷调查等方式获取数据。
2. 数据清洗:对收集到的数据进行整理和筛选,过滤掉异常数据、缺失数据或错误的数据。
确保数据的完整性和一致性。
3. 数据转换:将原始数据转换成可用于分析的格式,包括数值化、标准化、编码等操作。
确保数据的可比性和一致性。
4. 数据归类:根据研究目的和变量特征,将数据进行分类和分组,便于后续的统计分析。
5. 数据存储:将清洗和转换后的数据保存在适当的媒介中,如电子表格、数据库等,方便后续的统计分析。
二、统计分析方法1. 描述性统计分析:通过计算数据的中心趋势(如平均值、中位数、众数)、离散程度(如方差、标准差)和分布形态等,对数据进行描述和总结。
2. 探索性数据分析(EDA):通过数据可视化(如散点图、箱线图、直方图)等方法,发现数据之间的关系和趋势,并提出初步的假设和推断。
3. 推断统计分析:通过对样本数据进行假设检验、置信区间估计和相关性分析等方法,对总体或群体的特征进行推断和判断。
4. 预测分析:使用回归分析、时间序列分析等方法,对未来的数据趋势进行预测和预估。
5. 实证研究:通过实验设计和调查分析等方法,验证研究假设并得出科学结论。
三、注意事项1. 数据的采样和样本选择要具有代表性,避免选择偏倚导致的扭曲结果。
2. 合理选择统计方法和模型,避免过度拟合或欠拟合的情况发生。
3. 在进行假设检验时,要明确研究的假设、显著性水平和统计指标的选择,以充分判断研究结果的可靠性。
4. 需要注意数据的聚集效应等问题,避免在分析中出现不科学的关联性。
5. 在报告或论文中,应清晰地描述数据处理和统计方法的步骤和过程,以及分析的结果和结论。
分类数据处理的统计评析
作者:黄映玲
来源:《师道·教研》2011年第06期
摘要:目的:针对分类数据统计处理中存在的问题通过对比评析充分了解正确的统计处理方法。
方法:将分类数据中的顺序数据分别采用不同的检验方法处理后所得到的不同结果进行对比评析,从而说明不同的统计检验方法不仅功能上有很大差别,而且结果的统计解释也存在比较大的差异。
关键词:分类数据;顺序数据;x2检验;秩和检验
一、正确认识 x2检验的功能
分类数据中用到最多的统计方法当属x2检验,x2检验中的统计量是x2,而x2是一种与自由度有关的统计量,它等于若干个标准正态分布变量的平方和[1],但在分类计数资料的统计研究中,英国统计学家K·Pearson于19世纪末提出了一种解决实际频数布与理论推测频数分布的拟合优度检验的统计方法,其定义为x2=,其中A为实际频数,T为理论频数;某行某列的理论频数的计算办法为Tij,式中n为总例数,ni是第i行的合计数,mj是第j列的合计数。
在自由度大于1时(自由度V=(行数-1)·(列数-1)),Pearson的x2统计量与连续型变量的x2分布相近似,只是如表1的四格表或2×2表时,即自由度为1时有些情况下有所出入.
在T40的情况下,要通过校正得到一个近似x2分布值,此时的x2公式及专用计算公式为x2=式中的a、b、c、d分别是四个格子中的实际频数,即a=A11、b=A12、c=A21、d=A22。
但在总例数n
正是基于上述理论基础,在实际的分类计数资料作两组或多组样本率的比较、构成比比较的统计检验都采用Pearson x2检验。
仅当自由度为1,且样本量小时要谨慎外,通常采用Pearson x2检验解决上述问题都是可行的,所以在计数资料的统计处理中x2检验应用的比较广泛。
但也有人产生误解,以为一切分类计数资料的统计检验都可采用x2检验,这显然是不对的。
最常见的例子是采用x2检验进行两组或多组有序分类资料(也称为等级资料)的比较,而其结论与x2检验的功能有较大差别。
例1:某病采用西药治疗与中西药结合治疗,对两组病人的疗效观察结果如表2,比较两组的疗效是否相同。
试验者的意图显然是想比较两组的疗效是否相同或不同(是一个笼统的强度指标),但经x2检验后x2=7.84,V=(2-1)·(4-1)=3,P>0.05,实际结果应是两组各等级的构成比尚不能认为有差别(是一个结构指标),而非试验者欲反映的两组疗效间无差别的意义。
可以看到,在很多情况下试验者都表达为两组疗效无统计学意义,这显然是不对的。
二、两组或多组等级资料的比较宜用非参数的秩和检验
上述例子及类似的实际问题反映出的资料应属于等级资料,它的解决现在普遍采用非参数的秩和检验,两组(也称为2独立样本)比较可用Willcoxon秩和检验[2],上例计算结果为
T=53639.5,P=0.042 ,按α=0.05的检验水准差异有统计学意义。
说明两组疗效有差别,这和x2检验所作的结果恰恰相反。
还有一些类似的问题,如有的作者将疗效的等级评价标准中的痊愈(或控制)、显效、有效合并为总有效率来分析,这实际是把疗效视为两分类,变成了有效与无效,这显然和实际对疗效量化评价的等级不符,致使从数据获得的信息不仅粗糙,更主要的是大多数情况下和实际不符。
就上面的例子把痊愈、显效、有效合并成总有效与无效分类比较,合并后的数据如表3.
经作x2检验后x2=5.677,P=0.017,结论为差异有统计学意义,这显然与前面作的x2检验的结论相左,因此对这类等级资料的比较最好是采用非参数的秩和检验进行统计分析以评价不同组的疗效是统计上常用的方法。
在以往的统计学处理中也有人采用Ridit[1]法检验,但都因为计算上较麻烦,现在一些通用软件都没有设置,故己很少采用。
对多组或多个样本的等级资料比较常用的方法也是非参数的秩和检验,目前多采用Kruskal-Wallis秩和检验。
它的检验统计量是H。
当组数k>3或k=3但每组的例数n>5时,H 统计量近似x2分布,像SPSS软件输出的结果直接是x2值,尽管如此,仍不能说是x2检验,而应该是秩和检验。
三、有序分类变量的相关性分析可用x2检验
对同样的等级资料或有序分类资料,如果解决问题的角度和方式换一下,如例1中的资料把问题改成某病的疗效与治疗方式间有否关系,这就变成了统计上的单向有序变量的关联性分析的问题,这类问题的解决确实可用x2检验,按前面己列出的结果,由于P>0.05,故不能认为某病的疗效与治疗方法间存在关系。
从这个例子看出,对等级资料作两样本比较应该采用秩和检验,作关联性分析应该采用x2检验,且关联性分析是把资料视为一份样本,是对一份样本中的两个变量间的相关性作出推断,所以这两种方法其目的不同、意义不同、方法不同、结论不同。
对这样的R×C列联表若作两变量间关联性分析,采用x2检验作统计分析是对的。
例2:对54例牙病患者的64颗患牙的根端形态不同分为三种,X线片显示喇叭口状为A 型,管壁平行状为B型,管壁由聚状为C型。
经一段时间治疗后的结果列于表4,现比较不同根端形态的患牙的疗效有否差别[3]。
检验方式采用Kruskal-Wallis Test,计算结果为H=6.528,P=0.038,按α=0.05的检验水准,三组间差异有统计学意义。
这里需说明一下的是,若采用SPSS统计软件的话,在计算结果中显示的确实是Chi-square(x2)=6.5289,但并非x2检验。
但若作疗效是否与不同根端形态分型有关系,采用x2检验是对的,此时x2=7.636,P=0.106,说明疗效与不同根端形态分型间无相关性。
对于多组等级资料,若同时分组变量也是等级或有序的,则还可作两有序变量间的线性趋势分析[4]。
例3:观察依沙酰胺治疗皮肤真菌病变效果的临床试验中得表5资料,试对该资料作统计分析。
分析该病的疗效与病程之间是否有线性变化趋势?
可以视该资料为多组的等级资料间比较疗效是否相同或不同,也可视该资料为一份样本,作两个有序变量间的线性关系分析。
前者经Kruskal-Wallis秩和检验,H=22.836,P0.05,说明疗效与病程之间有线性关系。
上面的例子说明同是等级资料,但采用x2检验与秩和检验的意义却是不同,其功能也是不同的。
在实际应用中要根据研究目的、要说明的问题不同而采用不同的统计分析方法,不能一概通用x2检验。
综上所述,两组或多组率的比较通常采用x2检验是可行的,但对等级资料比较通常应采用非参数的秩和检验;而对单向或双向有序分类变量作相关性分析或线性趋势分析宜用x2检验,但它的意义显然与率的比较用的x2检验是不同的。
所有这些检验若采用统计软件如SPSS、SAS等作统计处理是很容易解决的。
参考文献:
[1]杨树勤主编.中国医学百科全书(医学统计学)[M].上海.上海科学技术出版社,
1985.213-214.
[2]方积乾主编.医学统计学与电脑实验[M].第二版.上海:科学技术出版社,2001.132-146.
[3]葛振林,包广洁,王丽京.复方抗生素、氢氧化钙糊剂诱导根尖成形的临床
研究[J].兰州医学院学报,2003,29(1):60.
[4]孙振球,徐勇勇主编.医学统计学(供研究生用)[M].北京:人民卫生出版社, 2002.178-180.
责任编辑罗峰
注:本文中所涉及到的图表、注解、公式等内容请以PDF格式阅读原文。