集成模型的五个基础问题
- 格式:docx
- 大小:172.29 KB
- 文档页数:6
迁移学习中的模型集成技巧迁移学习作为机器学习领域的一个重要研究方向,旨在利用已有的知识来改善新任务的学习性能。
在实际应用中,迁移学习往往需要通过模型集成技巧来进一步提升性能。
本文将就迁移学习中的模型集成技巧进行论述,希望能够给读者带来一些启发和思考。
首先,模型集成是指将多个基本模型的预测结果结合起来,从而得到更加准确和稳定的预测结果的一种技术。
在迁移学习中,模型集成技巧可以通过以下几个方面来实现。
第一,基于数据层面的集成技巧。
在迁移学习中,由于源领域和目标领域的数据分布不同,因此可以利用数据层面的集成技巧来改善模型的性能。
例如,可以通过集成学习的方式来融合源领域和目标领域的数据,从而得到更加鲁棒和泛化能力强的模型。
第二,基于特征层面的集成技巧。
迁移学习中,特征的选择和提取对于模型的性能至关重要。
因此,可以通过特征层面的集成技巧来进一步提升模型的性能。
例如,可以利用多个基本模型提取的特征来进行特征层面的集成,从而得到更加具有判别能力的特征表示。
第三,基于模型层面的集成技巧。
在迁移学习中,可以利用多个不同的基本模型来进行模型层面的集成,从而得到更加鲁棒和有效的模型。
例如,可以通过集成多个基于不同特征和不同算法的模型来改善迁移学习的性能。
除了以上几个方面的集成技巧外,还可以利用一些其他的技巧来提升迁移学习的性能。
例如,可以利用集成学习的方法来进行模型选择和超参数调节,从而得到更加优秀的模型。
另外,还可以利用集成学习的方法来进行模型评估和模型的不确定性估计,从而得到更加准确和可靠的结果。
总之,迁移学习中的模型集成技巧是一项非常重要的技术,可以通过数据层面、特征层面和模型层面的集成技巧来提升模型的性能。
另外,还可以利用一些其他的技巧来进一步改善迁移学习的性能。
希望本文的内容能够对读者有所启发,也希望迁移学习的研究能够得到进一步的推进和发展。
人工智能开发中的模型融合与集成方法详解人工智能(Artificial Intelligence, AI)的迅猛发展正在深刻改变着我们的生活和工作方式。
在AI开发中,模型融合与集成方法被广泛应用,以提高模型的准确性和鲁棒性。
本文将详细探讨模型融合与集成方法的原理和应用场景。
一、模型融合与集成方法的概念模型融合与集成方法是指将多个不同的模型进行组合,以达到更好的性能和效果。
在AI开发中,单个模型往往难以完美地解决所有问题,而通过模型融合和集成,可以整合各个模型的优点,进一步提升整体效果。
二、模型融合方法1. 平均方法:平均融合是最简单和常见的模型融合方法之一。
它通过对多个模型的输出结果进行加权平均,得到最终的结果。
平均融合适用于模型之间差异较小的情况下,可以有效地减少模型的方差,提高模型的稳定性。
2. 投票方法:投票融合是一种基于多数决策的方法。
它通过对多个模型的预测结果进行投票,选择得票数最多的结果作为最终输出。
投票融合适用于模型之间存在较大差异的情况下,可以减少模型的偏差,提高模型的准确性。
3. 加权方法:加权融合基于对不同模型结果进行加权求和,其中权重值可以根据不同模型的性能进行调整。
加权融合既考虑了模型之间的差异,又能针对性地调整模型的重要性,得到更优质的结果。
三、模型集成方法1. 堆叠集成:堆叠集成是一种将多个模型进行层次化组合的方法。
它通过将多个模型的预测结果作为输入,再经过一层或多层模型进行组合和预测,得到最终结果。
堆叠集成适用于模型之间存在明显关联或互补的情况下,能够提供更全面的特征表达和更有效的预测。
2. 链式集成:链式集成是一种串行连接不同模型的方法。
它通过将一个模型的输出结果作为下一个模型的输入,不断迭代地进行预测,直到达到最终结果。
链式集成适用于模型之间存在依赖关系的情况下,能够提供更深入的特征挖掘和更准确的预测。
3. 并行集成:并行集成是一种同时运行多个模型进行预测的方法。
模型集成方法
模型集成方法是一种将多个独立的模型组合起来以提高整体预测性能的技术。
在机器学习中,单个模型往往难以达到理想的预测准确率,因为每个模型都有其自身的偏见和限制。
通过将多个模型的预测结果进行组合,可以降低单个模型的偏差,并提高整体预测的稳定性和准确性。
模型集成方法有多种形式,包括平均集成、投票集成和堆叠集成等。
平均集成是一种简单而常用的方法,它通过对多个模型的预测结果进行平均来得到最终的预测。
这种方法适用于回归问题,例如通过对多个回归模型的预测结果进行平均来得到更准确的目标值预测。
投票集成是一种常用于分类问题的方法,它将多个分类模型的预测结果进行投票,将得票最多的类别作为最终的预测结果。
这种方法可以通过减少个别模型的错误预测,提高整体分类准确率。
堆叠集成是一种更为复杂和高级的模型集成方法,它通过将多个模型的预测结果作为输入,再使用另一个模型来组合这些预测结果,得到最终的预测结果。
这种方法可以利用不同模型的优势,提高预测性能,但同时也增加了模型的计算复杂度。
除了上述方法,还有一些其他的模型集成技术,如Boosting和Bagging等。
Boosting通过依次训练多个弱分类器,并根据前一个分类器的错误来调整下一个分类器的权重,从而得到一个强分类器。
Bagging则通过随机有放回地从训练集中抽样多次,训练多个独立的分类器,并将它们的预测结果进行平均。
总之,模型集成方法是一种有效的机器学习技术,通过将多个独立的模型组合起来,可以提高整体预测的准确性和稳定性。
不同的集成方法适用于不同的问题和数据集,选择适合的集成方法可以进一步改善模型的性能。
单模型集成方法单模型集成方法是指将多个同类型的模型进行融合,以提高模型的预测准确率和鲁棒性。
在实际应用中,单模型往往难以满足复杂任务的需求,因此集成多个模型成为了一种常见的解决方案。
单模型集成方法主要有以下几种:1.投票法投票法是一种简单有效的集成方法,它将多个模型的预测结果进行投票,以最终的投票结果作为最终的预测结果。
投票法适用于分类问题,对于二分类问题,可以采用多数投票法,对于多分类问题,可以采用最高票数法。
2.平均法平均法是一种将多个模型的预测结果进行平均的集成方法,它适用于回归问题和分类问题。
对于回归问题,可以采用算术平均法或加权平均法,对于分类问题,可以采用概率平均法或加权概率平均法。
3.堆叠法堆叠法是一种将多个模型的预测结果作为输入,再通过一个元模型对这些结果进行融合的集成方法。
堆叠法适用于各种类型的问题,它可以通过交叉验证来选择最优的元模型和模型组合方式。
4.Boosting方法Boosting方法是一种通过迭代训练来提高模型性能的集成方法,它通过加权训练样本和加权模型融合来提高模型的预测准确率。
Boosting方法适用于分类和回归问题,其中最著名的算法是AdaBoost和Gradient Boosting。
5.Bagging方法Bagging方法是一种通过自助采样和平均化来提高模型性能的集成方法,它通过随机采样训练样本和随机特征选择来提高模型的鲁棒性。
Bagging方法适用于分类和回归问题,其中最著名的算法是随机森林。
总结:单模型集成方法是一种有效的提高模型性能的方法,它可以通过投票、平均、堆叠、Boosting和Bagging等方法来融合多个模型,以提高模型的预测准确率和鲁棒性。
在实际应用中,需要根据具体问题和数据特点选择合适的集成方法和模型组合方式。
集成学习方法在机器学习领域,集成学习方法是一种常用的技术,它通过结合多个基本模型的预测结果,来获得更好的预测性能。
集成学习方法通常能够降低模型的方差,提高模型的泛化能力,因此在实际应用中得到了广泛的应用。
本文将介绍集成学习的基本原理、常见的集成学习方法以及其在实际问题中的应用。
首先,我们来了解一下集成学习的基本原理。
集成学习通过结合多个基本模型的预测结果,来获得更好的预测性能。
这些基本模型可以是同质的,也可以是异质的。
同质的基本模型指的是使用相同的学习算法,但在不同的子数据集上进行训练得到的模型;而异质的基本模型则是使用不同的学习算法得到的模型。
通过对多个基本模型的预测结果进行组合,集成学习可以降低模型的方差,提高模型的泛化能力。
接下来,我们将介绍一些常见的集成学习方法。
首先是Bagging方法,它是一种并行式的集成学习方法,通过对训练集进行有放回的采样,得到多个子数据集,然后在每个子数据集上训练一个基本模型,最后将这些基本模型的预测结果进行平均或投票来得到最终的预测结果。
Bagging方法通常能够降低模型的方差,提高模型的泛化能力。
另一种常见的集成学习方法是Boosting方法,它是一种串行式的集成学习方法,通过对训练集进行加权,每次训练一个基本模型,然后根据基本模型的表现对训练样本进行调整,最终将多个基本模型进行加权组合得到最终的预测结果。
Boosting方法通常能够降低模型的偏差,提高模型的泛化能力。
除了Bagging和Boosting方法之外,还有一些其他的集成学习方法,如随机森林、AdaBoost、Gradient Boosting等,它们都在不同的场景下得到了广泛的应用。
最后,我们将介绍一些集成学习方法在实际问题中的应用。
在实际问题中,集成学习方法通常能够取得比单一模型更好的预测性能。
例如,在分类问题中,通过集成多个基本分类器,可以得到更准确的分类结果;在回归问题中,通过集成多个基本回归模型,可以得到更准确的预测结果。
深度学习技术中的模型集成与融合技巧深度学习技术近年来在各个领域都取得了显著的成果,一直以来,研究人员都在探索如何提高模型的性能和鲁棒性。
模型集成与融合技巧正是其中一种常用的方法,通过结合多个模型的预测结果,可以进一步提升模型的性能。
模型集成与融合技巧可以分为两个方面,即模型集成和模型融合。
模型集成指的是通过构建多个独立的模型,然后将它们的预测结果进行整合来得到最终的预测结果。
而模型融合则是通过在单个模型内部引入多个子模型来提高性能。
下面,我们将分别介绍这两种技巧。
首先是模型集成。
模型集成的思想是通过建立多个独立的模型,然后将它们的预测结果进行整合来得到最终的预测结果。
常见的模型集成方法包括投票法、平均法、堆叠法等。
投票法是最简单且广泛使用的方法之一,它通过投票的方式来确定最终的预测结果。
平均法是将多个模型的预测结果进行平均,从而得到最终的预测结果。
堆叠法是一种更为复杂的方法,它将多个模型的预测结果作为输入,通过训练一个元模型来得到最终的预测结果。
这些模型集成方法可以根据实际问题的需求选择,并可以灵活组合使用。
其次是模型融合。
模型融合是指在单个模型内部引入多个子模型来提高性能。
常用的模型融合方法包括集成学习、多任务学习和迁移学习等。
集成学习通过结合多个子模型来进行联合训练,从而得到性能更好的模型。
多任务学习是指在一个模型中同时学习多个相关的任务,通过共享参数等方式来提高性能。
迁移学习则是将已经学习好的模型应用于新的问题上,通过迁移已有知识来提高性能。
这些模型融合方法可以根据实际问题的特点选择,并可以灵活组合使用。
在实际应用中,模型集成与融合技巧可以结合使用,以得到更好的性能提升。
例如,可以先通过模型集成的方法构建多个独立的模型,然后在单个模型内部引入多个子模型进行融合。
通过这种方式,可以充分利用不同模型和子模型之间的互补性,进一步提升模型的性能。
需要注意的是,在进行模型集成和融合时,应注意避免过拟合和欠拟合问题。
解释集成学习模型中的模型权重集成学习是一种通过结合多个弱学习器来构建一个强学习器的机器学习方法。
在集成学习中,模型权重是指在构建强学习器时,对于每个弱学习器的重要性程度的度量。
模型权重决定了每个弱学习器对最终预测结果的贡献程度,从而影响整个集成模型的性能。
一、集成学习简介在机器学习中,单个模型往往受到数据噪声、过拟合或欠拟合等问题的影响,导致预测结果不准确或不稳定。
而集成学习通过结合多个不同的模型来减少这些问题,并提高整体预测性能。
常见的集成方法包括Bagging、Boosting和Stacking等。
二、集成模型权重在构建一个集成模型时,需要为每个弱学习器分配一个权重值。
这些权重值决定了每个弱分类器对最终预测结果的贡献程度。
通常情况下,权重值是通过训练数据和某种准则来确定。
1. Bagging方法中的模型权重Bagging是一种基于自助采样法(bootstrap)和投票法(voting)的集成学习方法。
在Bagging方法中,每个弱学习器的权重是相等的,即每个弱学习器对最终结果的贡献相同。
这是因为Bagging方法通过对训练集进行自助采样,生成多个训练集,然后每个训练集独立地训练一个弱学习器。
最后通过投票法来决定最终结果,因此每个弱学习器对结果贡献相同。
2. Boosting方法中的模型权重Boosting是一种基于迭代和加权投票法的集成学习方法。
在Boosting方法中,每个弱学习器都有一个权重值,这些权重值根据前一轮迭代中模型预测结果和实际标签之间的误差来确定。
具体来说,在Boosting方法中,先根据初始数据集训练一个基础模型(如决策树),然后根据该模型在训练数据上的预测误差调整样本权重,并重新采样生成新的数据集。
接下来,在新数据上重新训练基础模型,并更新该模型在整体预测中的权重值。
3. Stacking方法中的模型权重Stacking是一种基于多层结构和元分类器(meta-classifier)组合的集成学习方法。
集成模型的原理与应用一、什么是集成模型?在机器学习领域中,集成模型是一种将多个弱学习器整合起来的方法,通过组合多个弱学习器的预测结果,可以达到更好的泛化性能。
集成模型的原理是利用多个模型的优点,弥补各个模型的缺点,从而提高整体模型的预测能力。
二、集成模型的原理集成模型的原理基于两个基本假设:一是弱学习器的泛化性能是有上界的,即存在一个强学习器能够达到更好的泛化性能;二是通过组合多个弱学习器的预测结果,可以减小预测误差。
2.1 弱学习器的定义在集成模型中,弱学习器通常指的是相对于单一模型而言,具有较低预测性能的模型。
常见的弱学习器包括决策树、支持向量机、随机森林等。
2.2 集成学习的方法集成学习的方法主要有两种:bagging和boosting。
•Bagging(自助聚合法):Bagging通过从原始数据集中有放回地抽样产生多个不同的训练集,然后构建多个弱学习器,最后通过平均或投票的方式来获得集成模型的预测结果。
常见的Bagging方法有随机森林算法。
•Boosting(提升法):Boosting通过顺序构建多个弱学习器,每个弱学习器在训练中会根据上一个弱学习器的表现调整数据的权重,从而使得模型能够逐步提高预测性能。
常见的Boosting方法有Adaboost、GBDT等。
2.3 集成模型的优势集成模型相比于单一模型具有以下优势:•可以利用多个弱学习器的优点,同时弥补各个模型的缺点,提高整体模型的预测能力。
•相比于单一模型,集成模型通常更具有泛化能力,对未知数据的预测能力更强。
•集成学习通过集成多个弱学习器的方式,可以减小预测误差,提高模型的稳定性和鲁棒性。
三、集成模型的应用集成模型在实际应用中具有广泛的应用领域,以下是一些常见的应用场景:3.1 金融风控在金融领域,集成模型可以通过组合多个预测模型的结果,提高对客户信用评估、欺诈检测等方面的精确度和准确度。
例如,可以使用随机森林算法对客户的贷款申请进行预测,以此判断客户是否具有违约风险。
集成模型的原理和应用实例1. 引言在机器学习领域中,集成模型是一种结合了多个基本模型的方法,通过结合多个模型的预测结果,可以显著提高预测性能。
集成模型已经在各个领域取得了广泛的应用,包括分类、回归、异常检测等任务。
本文将介绍集成模型的基本原理以及一些实际应用实例。
2. 集成模型的原理集成模型的基本原理是通过组合多个预测模型来得到更准确的预测结果。
常见的集成模型方法包括Bagging、Boosting和Stacking等。
2.1 BaggingBagging(Bootstrap aggregating)是一种通过自助采样(bootstrap sampling)构建多个模型,并通过投票或平均等方法进行综合预测的集成方法。
Bagging通常用于降低模型的方差,提高模型的稳定性。
在Bagging方法中,从原始数据集中有放回地抽取若干个样本来构建每个模型的训练集,然后每个模型分别进行训练。
最后,通过对每个模型的预测结果进行投票或平均,得到最终的集成预测结果。
2.2 BoostingBoosting是一种通过迭代地训练一系列弱模型,并根据前一个模型的预测结果调整下一个模型的权重,最终得到强模型的集成方法。
Boosting通常用于降低模型的偏差,提高模型的预测能力。
在Boosting方法中,每个模型的训练集不是独立地从原始数据集中随机采样,而是根据前一个模型的预测结果对样本的权重进行调整。
具体地,对于被前一个模型预测错误的样本,增加其在下一个模型中的权重,从而使下一个模型更关注于被错误分类的样本。
最终,通过加权和来综合所有模型的预测结果。
2.3 StackingStacking是一种通过将多个模型的预测结果作为输入,然后通过一个元模型来得到最终的预测结果的集成方法。
Stacking通常用于将不同类型的模型的优势进行结合,提高整体预测能力。
在Stacking方法中,首先训练多个不同的模型,然后将每个模型对样本的预测结果作为新的特征输入给元模型。
集成模型的五个基础问题
机器学习数据分析BaggingBoosting集成模型
摘要:对于建立高度精确的预测模型,集成模型是最有说服力的方式之一。
Bagging和Boosting算法进一步加强了这一方法的精确性。
本文详细探讨5个集成模型最常见的问题。
引言
如果你曾经参加过数据科学竞赛,你一定意识到集成模型(Ensemble Modeling)举足轻重的作用。
事实上,集成模型提供了最有说服力的方式之一,来建立高度精确的预测模型。
Bagging和Boosting算法进一步加强了这一方法的精确性。
所以,你下次构建预测模型的时候,考虑使用这种算法吧。
你肯定会赞同我的这个建议。
如果你已经掌握了这种方法,那么太棒了。
我很想听听你在集成模型上的经验,请把你的经验分享在下面的评论区。
对于其他人,我将会分享一些集成模型中常见的问题。
如果你想评估一个人对集成模型方面的知识程度,你可以大胆地提出这些问题,来检查他/她的知识水平。
另外,这些都是最简单的问题,因此你不希望他们回答错误!
哪些是常见的问题(关于集成模型)?
在分析各种数据科学论坛后,我已经确定了5个集成模型最常见的问题。
这些问题与刚接触集成模型的数据科学家高度相关。
以下就是这些问题:
1.什么是集成模型?
2.什么是bagging,boosting和stacking?
3.我们可以集成多个具有相同机器学习算法的模型吗?
4.我们如何确定不同模型的权重?
5.集成模型的好处是什么?
1、什么是集成模型?
我们先从解决一个分类问题来理解它。
场景问题:建立垃圾邮件过滤规则。
解决方案:我们可以制定各种垃圾邮件分类规则,我们来看看其中的几个:
1、垃圾邮件
∙邮件少于20个单词;
∙只有图片(宣传图片);
∙具有某些关键词,比如―赚大钱‖和―减肥‖;
∙许多拼写错误的单词。
2、非垃圾邮件
∙从经过验证域名发来的邮件;
∙来自家庭成员或者邮件联系人的邮件
在上面,我已经列出了一些过滤垃圾邮件的常见规则。
你认为这些规则能单独预测正确的分类吗?
大部分人可能都会认为不能——事实也是这样!与使用单个规则进行预测相比,结合使用这些规则会产生鲁棒的预测效果。
这就是集成模型的原则。
集成模型集合使用多个―单独的‖(不同的)模型,并提供出色的预测能力。
如果用现实生活中的例子说明集成模型,就比如一群人总能做出比单个人要好的决策,特别是当群成员的背景各不相同时。
对于机器学习来说也是这样。
基本上,集成是一种监督式学习技术,它将多个弱学习模块/模型集成起来,产生强学习模块。
如果我们集成低相关性模型的话,集成模型的工作效果会更好。
集成方法常用于解决数据科学问题方面的一个非常好的例子就是随机森林算法(使用多层分类回归树模型)。
在分类新对象上,比使用单个分类回归树性能要更好,每一棵树都给类进行―投票‖,然后森林选择得票最高(在森林所有的树中)的作为目标分类。
如果是回归问题,那么将取不同树的输出均值。
你也可以参考这篇文章《集成学习基础通俗简介》来了解更多集成模型知识。
2、什么是Bagging,Boosting和Stacking?
让我们分别来看看这三个是什么,并了解这些术语之间的区别:
Bagging(Bootstrap汇总)是一种集成方法。
首先,我们创建随机训练数据集样本(训练数据集的子集)。
然后我们为每个样本建立分类器。
最后,这些多分类器的结果将结合起来,使用平均或多数投票。
Bagging有助于降低方差。
Boosting提供了预测模块的连续学习功能。
第一个预测模块从整个数据集上学习,下一个预测模块在前一个的性能基础上在训练数据集上学习。
首先对原始数据集进行分类,并给每个观测给予同样的权重。
如果第一个学习模块错误预测了类,那么将会赋予错误分类观测较
高的权重。
这个过程将反复迭代,不断添加分类学习模块,直到达到模型数量或者某个准确度。
Boosting有比Bagging更好的预测精准度,但它有时也会过度拟合训练数据。
Boosting最常见的例子是AdaBoost和梯度提升。
你也可以看看这些文章来进一步了解Boosting算法。
∙Getting smart with Machine Learning – AdaBoost and Gradient Boost
∙Learn Gradient Boosting Algorithm for better predictions (with codes in R)
Stacking工作分为两个阶段。
首先,我们使用多个基础分类器来预测分类。
然后,一个新的学习模块与它们的预测结果结合起来,来降低泛化误差。
3、我们可以集成多个具有相同机器学习算法的模型吗?
是的,我们可以集成多个具有相同机器学习算法的模型,但是结合多个不同算法生成的预测结果通常会得到更好的预测。
这是由于彼此间的多样化或独立性的本质。
比如,结合随机森林,KNN,朴素贝叶斯得到最终的预测结果集比结合三个随机森林模型得到的结果要更强。
创建一个强大的集成模型的关键是模型的多样性。
一个由两种非常相似技术组成的集成模型性能要比由具有多样性模型集组成的集成模型差。
案例:假如我们有三个模型(A,B和C)。
A,B,C的预测准确率分别为85%,80%,55%。
但是A和B高度相关,而C与A或B都不怎么相关。
那么我们应该将A和B集成
起来吗?不,我们不能这么做,因为这两个模型高度相关。
因此,我们不能将这两者集成,因为这对降低泛化误差没有帮助。
我更倾向于集成A和C或者B和C。
4、我们如何确定不同模型的权重?
集成模型的一个最常见的问题就是找到每个基础模型的最佳权重。
在一般情况下,我们假定所有基础模型具有相同的权重,然后采取预测的平均值作为结果。
但是,这是最好的解决方案吗?
找到各个基础学习模块的最佳权重集成有许多方法。
这些方法对找到合适的权重提供了公平的依据。
我在下面将它们罗列了出来:
∙计算基础学习模块之间的共线性表,然后基于这张表来确定用于集成的基础模型。
之后,根据确定的基础模型的交叉验证得分(得分之比)来确定权重。
∙找到返回基础学习模块最优权重的算法。
你可以参考这篇文章Finding Optimal Weights of Ensemble Learner using Neural Network来了解此算法。
∙我们同样可以使用以下方法来解决这个问题:
1.Forward Selection of learners
2.Selection with Replacement
3.Bagging of ensemble methods
你也同时可以看看Kaggle/数据科学竞赛胜出的解决方案,以了解解决此问题的其他方法。
5、集成模型的好处是什么?
集成模型有两大好处:
∙更好的预测;
∙更稳定的模型。
集成多个模型会比其他模型有更少的噪声。
在金融领域,我们称为―多样化‖,投资许多股票要比投资一个股票的变化风险要小。
这也是为什么使用集成模型要比使用单独模型效果要好。
使用集成模型需要注意的一个问题是避免过拟合,虽然Bagging在很大程度上对此进行了处理。
后记
在这篇文章中,我们了解了5个关于集成模型常常被问及的问题。
在回答这些问题时,我们讨论了―集成模型‖,―集成方法‖,―为什么我们要集成不同的模型‖,―确定最优集成权重的方法‖和―好处‖。
我建议你看看数据科学竞赛前5名的解决方案,看看他们的集成方式以获得更深入的理解,然后多多实践。
这会帮助你理解什么方法行得通,什么方法行不通。