机器学习方法和线性随机效应混合模型 在纵向数据预测上的对比
- 格式:pdf
- 大小:653.25 KB
- 文档页数:7
机器学习算法解析随着人工智能技术的不断发展,机器学习已经成为了其中非常重要的一部分。
机器学习算法则是机器学习领域的核心,它能够让机器自动地从数据中学习模型,从而能够更好地完成各种任务。
在本文中,我们将对机器学习算法进行解析,以帮助读者更好地了解这一领域。
一、机器学习算法的分类机器学习算法可以被分为监督学习、无监督学习和增强学习三类。
监督学习是指通过输入-输出数据对来进行学习,这类算法需要有标记的数据作为输入,从中学习出一个模型,然后对新的数据进行预测。
无监督学习是指从没有标记的数据中学习模型,这类算法通常用于聚类和降维等任务。
增强学习则是一类通过与环境交互的方式来进行学习的算法,其目的在于通过与环境的交互来学习出一个策略,并进行优化。
二、机器学习算法的常见模型1.线性模型线性模型是一种通过线性方程来描述变量之间关系的模型。
线性回归和逻辑回归是线性模型的代表,它们常被用于解决分类和回归问题。
2.决策树决策树是一种通过树形结构描述分类和回归问题的模型。
它将数据分割成一系列的分支和节点,在每个节点上通过对某个特征的判断来进行分类或回归。
3.支持向量机支持向量机通常用于解决分类问题,它通过一个超平面将数据分为两类,并最大化两类数据点到超平面的距离。
它的优点在于能够对高维数据进行分类。
4.朴素贝叶斯朴素贝叶斯是一种基于贝叶斯定理的分类算法,它假设每个特征之间是独立的。
在分类时,朴素贝叶斯算法将根据每个特征的概率来计算某个类别的概率。
5.神经网络神经网络模型是一种通过仿真大脑神经元之间的交互来解决问题的模型。
它通常用于解决分类和回归问题,需要大量的训练数据和计算资源。
三、机器学习算法的优缺点机器学习算法具有以下优点:1.能够对大型数据进行处理,从而能够发现数据中潜在的结构和规律。
2.能够自动地处理数据,从而能够提高工作效率。
3.能够不断地通过数据进行更新和优化,从而能够提高准确性。
但机器学习算法也存在一些缺点:1.需要大量的数据和计算资源来进行训练。
如何利用机器学习进行数据预测利用机器学习进行数据预测的方法随着大数据时代的到来,数据预测逐渐成为了各行各业中不可或缺的一项工作。
在过去,数据预测往往依赖于人工经验和统计方法,但这种方法存在着许多局限性。
而如今,随着机器学习技术的快速发展,利用机器学习进行数据预测已经成为了一种更加准确和高效的方法。
机器学习是一种通过对大量数据的学习和分析,使机器能够自动识别模式、学习规律,并根据学习到的规律进行预测和决策的人工智能技术。
在数据预测中,机器学习可以通过分析历史数据,找出数据之间的内在关系和规律,从而对未来的数据进行预测。
下面将介绍一些常用的机器学习方法,可以应用于数据预测中:1. 监督学习监督学习是一种通过已有的标签数据进行训练,以预测未来的数据的方法。
在监督学习中,我们需要准备带有标签的训练数据集,其中包含了输入特征和对应的标签。
常用的监督学习算法包括线性回归、逻辑回归、决策树、随机森林等。
这些算法可以根据已有数据的特征和标签建立预测模型,并利用该模型对未知数据进行预测。
2. 无监督学习无监督学习是一种在没有标签数据的情况下进行学习和预测的方法。
该方法可以通过对数据的特征进行聚类、降维等处理,从而找出数据中的潜在规律和结构。
常用的无监督学习算法包括聚类算法(如K均值聚类、层次聚类)、关联规则挖掘、主成分分析等。
无监督学习可以帮助我们对数据进行探索和理解,为后续的数据预测提供依据。
3. 深度学习深度学习是一种基于神经网络的机器学习方法,其强大的特征提取和表达能力使其在数据预测中取得了很好的效果。
深度学习通过多层神经网络模拟人类大脑的工作原理,可以学习到更加抽象和高级的特征表示。
在数据预测中,深度学习可以处理复杂的非线性关系,对于图像识别、语音识别、自然语言处理等领域有很好的表现。
除了以上的常用方法外,还有许多其他的机器学习算法可以应用于数据预测中,如集成学习、支持向量机、贝叶斯网络等。
选择合适的算法需要根据具体的问题和数据来调整。
随机效应模型与混合效应模型随机效应模型(Random Effects Model)和混合效应模型(Mixed Effects Model)是在统计学中常用的两种分析方法。
它们在研究中可以用来解决数据中存在的个体差异和组间差异的问题,从而得到更准确的结果。
一、随机效应模型随机效应模型适用于数据具有分层结构的情况。
它假设个体之间的差异是随机的,并且个体之间的差异可以用方差来表示。
在随机效应模型中,我们关心的是不同个体之间的差异以及它们对结果的影响。
随机效应模型的基本形式为:Yij = μ + αi + εij其中,Yij表示第i个个体在第j个时间点或者第j个条件下的观测值;μ表示总体均值;αi表示第i个个体的随机效应,它们之间相互独立且符合某种分布;εij表示个体内的随机误差。
随机效应模型通过估计不同个体的随机效应来刻画个体之间的差异,并且可以通过随机效应的显著性检验来判断个体之间的差异是否存在。
二、混合效应模型混合效应模型结合了固定效应和随机效应两个模型的优点,适用于数据同时具有组间差异和个体差异的情况。
在混合效应模型中,我们关心的是个体之间的差异以及不同组之间的差异,并且它们对结果的影响。
混合效应模型的基本形式为:Yij = μ + αi + βj + εij其中,Yij表示第i个个体在第j个组下的观测值;μ表示总体均值;αi表示个体的随机效应;βj表示组的固定效应;εij表示个体内的随机误差。
通过混合效应模型,我们可以同时估计个体的随机效应和组的固定效应,并且可以通过对这些效应的显著性检验来判断个体和组之间的差异是否存在。
三、随机效应模型和混合效应模型的比较随机效应模型和混合效应模型在数据分析中都具有重要作用,但在不同的研究场景下选择合适的模型是非常重要的。
1. 数据结构:如果数据存在明显的分层结构,即个体之间的差异比组之间的差异更为重要,那么随机效应模型是更好的选择。
2. 因变量类型:如果因变量是连续型变量,那么随机效应模型和混合效应模型都可以使用;如果因变量是二分类或多分类变量,那么混合效应模型是更好的选择。
纵向数据中线性混合模型的估计与检验【摘要】:在对社会学,生物学,经济学以及农业等学科的连续性纵向数据研究时,线性混合效应模型是很受欢迎的研究工具。
这是因为模型中随机效应和误差的分布往往假设为正态分布,这样我们就可以很方便的使用极大似然估计方法(MLE)或者限制极大似然估计方法(RMLE)来研究模型中的参数性质。
特别地,人们可以使用SAS,R等统计软件直接分析数据。
然而,随着对线性混合模型研究的深入,人们发现实际数据中正态性假设并不完全成立,特别是随机效应的正态性假设更值得怀疑。
如何检验模型中的分布的正态性,以及拒绝正态性假设后,如何估计模型参数,研究随机效应和误差的局部性质是本文要研究的问题。
在论文的第一部分,我们将研究线性混合效应模型中随机效应的正态性假设。
在文献中,基于经验特征函数,Epps&Pulley(1983)提出了对一维随机变量的正态性假设的拟和检验,Baringhaus&Henze(1988)解决了多维随机向量的正态性检验问题,与此类似的检验被统计学家统称为BHEP检验。
这里,我们推广HenzeWanger(1997)提出的BHEP检验方法来构造我们的检验统计量。
因为模型中随机效应是不可观测的,我们只有使用相应的最优线性无偏预测(BLUP)。
研究发现,文中的检验统计量在原假设下渐近收敛于一个零均值的高斯过程,并且对以参数速度收敛到原假设的被择分布特别敏锐。
因为极限高斯过程不易用来模拟检验统计量的临界值,我们提出了条件蒙特卡洛模拟方法(CMCT)。
为了直观的研究我们的检验统计量的功效,我们给出了不同分布假设下,检验的p-值,并与文献中已有的两种检验方法作了比较。
此外,我们还进行的了一些实际数据分析。
经过上述检验方法分析实际数据,我们发现正态性假设确实不完全成立。
在论文的余下部分,我们来研究非正态假设下如何估计模型的未知参数,以及研究随机效应和误差的局部性质,也就是估计它们的一些高阶矩,文中我们主要研究了前四阶矩的非参数估计。
机器学习算法的分类与比较机器学习是人工智能领域的重要组成部分,它通过从数据中学习模式和规律,使计算机能够自动完成任务和做出决策。
在机器学习中,算法的选择是非常关键的,不同的算法适用于不同的问题场景。
本文将对机器学习算法进行分类与比较,帮助读者了解各种算法的优缺点及应用范围。
一、监督学习算法监督学习是机器学习中最常用的方法之一,它通过已知输入和输出的训练数据,建立一个模型来预测新的输入数据的输出。
以下是几种常见的监督学习算法:1. 岭回归(Ridge Regression):适用于线性回归问题,通过引入正则化项以解决过拟合问题。
2. 逻辑回归(Logistic Regression):适用于二分类问题,通过对样本进行概率建模,能够输出实例属于某个类别的概率。
3. 决策树(Decision Tree):根据特征的取值将样本逐步分割为不同的叶子节点,并学习出一系列规则用于分类问题。
4. 支持向量机(Support Vector Machine):通过找到一个最优超平面来实现对样本的分类,主要用于二分类问题。
5. 随机森林(Random Forest):将多个决策树进行组合,通过投票或平均值来进行分类,具有较好的鲁棒性和准确性。
二、无监督学习算法无监督学习是指从无标签数据中学习模型的机器学习方法,其目标是发现数据中的隐藏结构和模式。
以下是几种常见的无监督学习算法:1. K-means聚类算法:根据样本之间的距离将数据集划分为K个簇,每个簇内的样本具有相似性。
2. 主成分分析(Principal Component Analysis,PCA):通过线性变换将高维数据转换为低维数据,以尽可能保持数据的方差。
3. Apriori算法:用于关联分析,它通过频繁项集的挖掘来发现数据中的关联关系。
4. 高斯混合模型(Gaussian Mixture Model,GMM):假设数据由多个高斯分布组成,通过最大似然估计来估计分布的参数。
线性混合效应模型的运用和解读线性混合效应模型(Linear Mixed Effects Model,简称LME)是一种统计模型,用于分析具有重复测量或者多层次结构的数据。
它在社会科学、医学研究、生态学等领域得到广泛应用,能够更准确地估计固定效应和随机效应之间的关系,从而提高数据分析的准确性和可靠性。
LME模型的核心思想是将数据分解为固定效应和随机效应两部分。
固定效应是指影响整个样本的因素,例如性别、年龄等,而随机效应则是指影响个体差异的因素,例如个体间的随机误差或者组别间的随机变异。
通过同时考虑固定效应和随机效应,LME模型能够更好地描述数据的变异情况,提高参数估计的准确性。
LME模型的数学表达形式如下:Y = Xβ + Zγ + ε其中,Y是因变量,X和Z是设计矩阵,β和γ分别是固定效应和随机效应的系数,ε是随机误差项。
通过最大似然估计或者贝叶斯方法,可以估计出模型的参数,进而进行数据的分析和解读。
LME模型的应用范围非常广泛。
在社会科学领域,比如教育研究中,研究者常常需要考虑学校和学生之间的差异,LME模型可以很好地处理这种多层次结构的数据。
在医学研究中,LME模型可以用于分析多个医院或者诊所的数据,考虑到不同医院或者诊所之间的差异。
在生态学研究中,LME模型可以用于分析观测数据和实验数据,考虑到不同观测点或者实验处理之间的差异。
LME模型的解读需要注意几个方面。
首先,需要关注固定效应和随机效应的估计结果。
固定效应的估计结果可以告诉我们在整个样本中哪些因素对因变量有显著影响,而随机效应的估计结果可以告诉我们个体差异或者组别间的差异对因变量的解释程度。
其次,需要关注模型的拟合优度,例如R方值或者AIC/BIC等指标。
拟合优度可以反映模型对数据的解释能力,值越高表示模型拟合得越好。
最后,需要进行参数估计的显著性检验,判断模型中的固定效应和随机效应是否显著。
除了上述基本的应用和解读,LME模型还可以进行进一步的扩展和改进。
线性混合模型概述线性混合模型(Linear Mixed Model,LMM)是一种广泛应用于统计分析的方法,它结合了固定效应和随机效应,能够处理多层次数据结构和相关性。
本文将对线性混合模型的基本概念、应用领域以及建模方法进行概述。
一、线性混合模型的基本概念线性混合模型是一种广义线性模型(Generalized Linear Model,GLM)的扩展,它引入了随机效应来考虑数据的层次结构和相关性。
在线性混合模型中,我们将因变量Y表示为固定效应X和随机效应Z的线性组合,加上误差项ε,即Y = Xβ + Zγ + ε。
其中,X是固定效应的设计矩阵,β是固定效应的系数向量;Z是随机效应的设计矩阵,γ是随机效应的系数向量;ε是误差项,通常假设为服从正态分布。
线性混合模型的随机效应可以用来描述数据的层次结构和相关性。
例如,在教育研究中,学生的成绩可能受到学校和班级的影响,这时可以将学校和班级作为随机效应来建模。
另外,线性混合模型还可以处理重复测量数据、纵向数据和横断面数据等多种数据类型。
二、线性混合模型的应用领域线性混合模型在各个学科领域都有广泛的应用。
以下是一些常见的应用领域:1. 生物医学研究:线性混合模型可以用于分析遗传数据、药物试验数据和临床研究数据等。
例如,在遗传研究中,线性混合模型可以用来估计基因的遗传效应和环境的影响。
2. 农业科学:线性混合模型可以用于分析农田试验数据、动物育种数据和农作物生长数据等。
例如,在农田试验中,线性混合模型可以用来估计不同处理对作物产量的影响。
3. 教育研究:线性混合模型可以用于分析学生的学业成绩、教育政策的效果和教育干预的效果等。
例如,在教育评估中,线性混合模型可以用来估计学校和班级对学生成绩的影响。
4. 社会科学:线性混合模型可以用于分析调查数据、面试数据和问卷数据等。
例如,在心理学研究中,线性混合模型可以用来估计个体差异和组内相关性对心理测量的影响。
三、线性混合模型的建模方法线性混合模型的建模方法主要包括参数估计和模型选择两个步骤。
3种典型机器学习方法在灾害敏感性评估中的对比张雪蕾;汪明;曹寅雪;刘凯;洪超裕【期刊名称】《中国安全生产科学技术》【年(卷),期】2018(014)007【摘要】为了比较不同机器学习方法在灾害敏感性评估中的适用性,将K近邻、朴素贝叶斯和随机森林3种典型机器学习方法运用到灾害敏感性评估中,比较3种方法在预测准确率、混淆矩阵和敏感性图上的异同;并基于深圳市电动自行车出险数据以及孕灾环境数据,运用3种方法评估深圳市电动自行车出险的敏感性,进而绘制敏感性图,探讨3种方法对于不同性质数据的适用条件,为开展灾害敏感性评估工作时选取更为适宜的方法,提供参考建议.【总页数】7页(P79-85)【作者】张雪蕾;汪明;曹寅雪;刘凯;洪超裕【作者单位】环境演变与自然灾害教育部重点实验室,北京100875;北京师范大学地理科学学部减灾与应急管理研究院,北京100875;环境演变与自然灾害教育部重点实验室,北京100875;北京师范大学地理科学学部减灾与应急管理研究院,北京100875;环境演变与自然灾害教育部重点实验室,北京100875;北京师范大学地理科学学部减灾与应急管理研究院,北京100875;环境演变与自然灾害教育部重点实验室,北京100875;北京师范大学地理科学学部减灾与应急管理研究院,北京100875;环境演变与自然灾害教育部重点实验室,北京100875;北京师范大学地理科学学部减灾与应急管理研究院,北京100875【正文语种】中文【中图分类】X913.4【相关文献】1.机器学习方法和线性随机效应混合模型在纵向数据预测上的对比 [J], 李红梅;吴喜之;;2.基于机器学习方法的长输管线地质灾害预测建模 [J], 黄桥; 杨洋; 吴思; 陈勇; 谢磊3.基于机器学习方法的上市公司财务预警模型对比研究 [J], 李星辰; 王青龙; 林国庆4.基于三种机器学习方法的降水相态高分辨率格点预报模型的构建及对比分析 [J], 杨璐;南刚强;陈明轩;宋林烨;刘瑞婷;程丛兰;曹伟华5.基于自然灾害风险理论的陕西省典型作物干旱灾害风险评估与区划 [J], 徐桂珍因版权原因,仅展示原文概要,查看原文内容请购买。
机器学习算法与模型比较随着科技的发展和大数据时代的到来,机器学习成为了炙手可热的研究领域。
在机器学习中,算法与模型是两个关键概念。
本文将重点比较机器学习算法与模型之间的差异和应用场景。
一、算法与模型的概念在机器学习中,算法是指一组定义明确的步骤,用于解决特定问题的计算方法。
通过算法,机器可以从数据中学习到某种模式或规律,并做出预测或分类。
而模型则是指通过机器学习算法训练得到的具有某种能力的机器学习模型,它可以对新的数据进行预测或分类。
二、机器学习算法的分类根据机器学习算法的学习方式,可以将其分为监督学习、无监督学习和强化学习三大类。
1. 监督学习算法监督学习算法是利用有标记的数据进行训练的,即给定了输入和输出对应的训练数据。
常见的监督学习算法有决策树、支持向量机(SVM)、逻辑回归等。
这些算法在分类和回归问题上有着广泛的应用。
2. 无监督学习算法无监督学习算法是在没有标记的数据上进行训练的,即只给定了输入数据。
无监督学习算法可以从数据中挖掘潜在的模式和结构,常见的无监督学习算法包括聚类、降维和关联规则等。
3. 强化学习算法强化学习算法是通过观察环境并采取行动,以最大化获得的累计奖励。
强化学习算法常用于机器人控制、游戏策略等领域。
三、机器学习模型的分类机器学习模型可以根据不同的问题和数据类型进行分类。
1. 线性模型线性模型是一类基于线性关系的机器学习模型,常用于回归和分类问题。
线性回归和逻辑回归是常见的线性模型。
2. 非线性模型非线性模型是一类不仅仅考虑线性关系的模型。
例如,多项式回归和支持向量机可以处理非线性关系。
3. 深度学习模型深度学习模型是一类基于人工神经网络的模型,其特点是具有深层次的神经网络结构。
深度学习模型在图像识别、语音识别等领域取得了巨大成功。
四、机器学习算法与模型的比较算法和模型之间存在一些差异。
算法是具体的过程或步骤,而模型是通过算法得到的具有预测或分类能力的机器学习模型。
算法是一种抽象的概念,而模型是对实际问题的建模。
机器学习模型在大数据分类中的应用比较摘要:随着互联网的迅速发展,大数据正成为当今时代的一个热门话题。
而处理大数据的问题中,分类和预测是一个重要的应用领域。
机器学习模型作为一种能够从大量数据中学习信息并进行自动分类的方法,近年来得到了广泛的关注。
本文将对几种常见的机器学习模型在大数据分类中的应用进行比较,并分析其优劣势。
1. 逻辑回归逻辑回归是一种广泛应用于分类问题的机器学习模型。
其基本思想是利用一个回归模型来进行分类,通过一个逻辑函数将输出结果映射到0和1之间。
逻辑回归的优势在于简单易懂,计算效率高,并且能够处理高维数据。
然而,逻辑回归也存在一些缺点,比如对于非线性关系的数据拟合效果较差。
2. 支持向量机支持向量机是一种基于统计学习理论的机器学习模型,常用于进行分类和回归分析。
其核心思想是通过在样本空间中构造一个最优超平面来进行分类。
支持向量机具有良好的泛化能力,适用于多分类问题,并且在处理高维数据时表现出较高的性能。
然而,支持向量机的训练时间较长,在面对大规模数据集时可能会受到限制。
3. 决策树决策树是一种通过自上而下递归地将数据集划分为不同类别的机器学习模型。
决策树的优势在于易于理解和解释,可以处理非线性关系的数据,并且对缺失值和异常值具有较好的容错性。
决策树还可以用于特征选择和异常检测。
然而,决策树容易过拟合,尤其是在处理复杂数据时容易产生过多的分支。
4. 随机森林随机森林是一种基于决策树的集成学习算法。
它通过对数据集进行自助采样(Bootstrap)和随机选取特征子集来构建多个决策树,并通过投票或平均数的方式进行分类。
随机森林具有较好的性能和泛化能力,在处理大规模数据集时也具有较高的效率。
然而,随机森林模型的可解释性和可调参数较多,调参过程较为繁琐。
5. 神经网络神经网络是一种受到生物神经网络启发而发展起来的模型。
它通过多层神经元之间的连接和权重来处理信息,并通过反向传播的算法进行训练。
统计机器学习方法的比较研究统计机器学习方法是一种应用统计学方法和计算机科学技术,通过数据分析和模型构建来实现自动化学习和预测的方法。
本文将对不同的统计机器学习方法进行比较研究,包括支持向量机、随机森林和深度学习。
一、支持向量机(SVM)支持向量机是一种监督学习算法,主要用于分类和回归分析。
它的目标是找到一个决策边界,将不同类别的数据点分隔开来。
支持向量机通过选择合适的核函数将数据映射到高维空间,使得在高维空间中存在一个超平面能够完美地分离不同类别的样本点。
二、随机森林(Random Forest)随机森林是一种集成学习方法,通过组合多个决策树来进行分类或回归分析。
随机森林的特点在于利用自助采样法对训练数据进行采样,并在每个决策树的节点上随机选择特征进行划分,最后将多个决策树的结果综合起来。
三、深度学习(Deep Learning)深度学习是一种基于神经网络的机器学习方法,具有多个隐层的神经网络结构。
深度学习通过多层次的特征提取和抽象,能够更好地处理大规模数据和复杂的非线性关系。
深度学习在图像识别、自然语言处理等领域取得了显著的成果。
比较研究:1. 模型复杂度:支持向量机和随机森林在模型复杂度上相对较低,容易解释和理解,适合处理小规模数据集。
而深度学习模型复杂度较高,容易过拟合,需要大规模数据集进行训练。
2. 预测性能:深度学习在大规模数据集上具有较强的预测性能,尤其在图像和语音识别等领域表现优异。
而支持向量机和随机森林在一些中小规模数据集上表现更好。
3. 可解释性:支持向量机和随机森林能够提供较高的可解释性,可以通过特征权重和决策树的规则进行解释。
而深度学习由于其复杂的网络结构,解释性相对较差。
4. 训练速度:支持向量机的训练速度相对较快,而深度学习由于网络结构复杂,需要更多的计算资源和时间进行训练。
5. 数据要求:深度学习对大规模数据集的要求比较高,需要充足的训练样本。
而支持向量机和随机森林对数据规模要求相对较低。
meta分析中固定效应模型、随机效应模型和混合OLS模型的选择在Meta分析中最常用的是固定效应模型、随机效应模型。
怎样理解这两种模型呢?举个简单的例子:让十个学生去测量操场中的同一根旗杆,旗杆长度的测量值可以看作是一个固定效应模型;然而如果让一个学生去测量操场上长度不同的十根旗杆,旗杆长度的测量值则是随机效应模型。
一般来说,随机效应模型得出的结论偏向于保守,置信区间较大,更难以发现差异,带给我们的信息是如果各个试验的结果差异很大的时候,是否需要把各个试验合并需要慎重考虑,作出结论的时候就要更加小心。
从另一个角度来说,Meta分析本来就是用来分析结论不一致甚至是相反的临床试验,通过Meta分析提供一个可靠的综合的答案,如果每个试验的结果都一模一样,根本就没有必要作Meta分析,因此要通过齐性检验来解决这对矛盾。
一般来说判断方法是根据I2来确定。
1.就是根据I2值来决定模型的使用,大部分认为>50%,存在异质性,使用随机效应模型,≤50%,用固定效应模型,有了异质性,通过敏感性分析,或者亚亚组分析,去探求异质性的来源,但是这两者都是定性的,不一定能找到,即使你做了,研究数目多的话,可以做个meta回归来找异质性的来源2.在任何情况下都使用随机效应模型,因为如果异质性很小,那么随即和固定效应模型最终合并结果不会有很大差别,当异质性很大时,就只能使用随机效应模型,所以可以说,在任何情况下都使用随机效应模型3.还有一种,看P值,一般推荐P的界值是0.1,但现在大部分使用0.05,就是说P >0.05,用固定,≤0.05用随机效应模型。
但是这些都没有统一的说法,存在争议,如果你的审稿人是其中一种,你和他相冲突了,你只能按照他说的去修改,因为没有谁对谁错,但是现在你的文章在人家手里,如果模型不影响你的结果,你就遵照他们的建议但是,也不必过度强调哪种方法,更重要的是找到异质性根源。
meta分析中,异质性是天然存在的。