特征选择方法在建模中的应用
- 格式:pps
- 大小:611.00 KB
- 文档页数:18
数据挖掘中的特征选择技巧在数据挖掘领域,特征选择是一个非常重要的环节。
特征选择是指从数据集中选择最具代表性的特征,以便用于建模和预测分析。
在实际应用中,通常会遇到大量的特征数据,而并非所有的特征都对建模和预测有帮助。
因此,如何有效地进行特征选择,成为了数据挖掘领域的一个重要课题。
本文将介绍数据挖掘中的特征选择技巧,以及其在实际应用中的意义。
1. 特征选择的意义特征选择在数据挖掘中具有重要意义。
首先,特征选择可以提高模型的鲁棒性和泛化能力。
当特征选择得当时,可以有效地减少模型的复杂度,降低过拟合的风险,从而提高模型的预测能力。
其次,特征选择可以降低建模的成本和时间。
在实际应用中,数据集往往包含大量的特征,而特征选择可以帮助我们筛选出最重要的特征,从而降低数据处理和建模的成本和时间。
最后,特征选择可以帮助我们更好地理解数据。
通过特征选择,我们可以发现数据中隐藏的规律和关联,从而更好地理解数据背后的含义。
2. 特征选择的方法在数据挖掘中,有许多方法可以用来进行特征选择。
其中,常用的方法包括过滤式、包裹式和嵌入式特征选择方法。
过滤式特征选择方法是指在建模之前,利用特征之间的关联关系进行筛选,常用的技巧包括方差分析、相关系数分析等。
包裹式特征选择方法是指在建模过程中,通过不断地尝试不同的特征组合,从而选择最优的特征子集。
嵌入式特征选择方法是指在建模过程中,将特征选择融入到模型训练中,通常是通过正则化技术来实现。
除了上述的基本方法外,还有一些其他的特征选择技巧。
例如,基于信息熵的特征选择方法可以通过计算特征对于目标变量的信息增益来进行特征选择。
此外,基于树模型的特征选择方法可以通过计算特征的重要性分数来进行特征选择。
这些方法各有特点,可以根据具体的应用场景来选择合适的方法。
3. 特征选择的实际应用在实际应用中,特征选择技巧被广泛应用于各种领域。
例如,在医疗领域,可以利用特征选择技巧来筛选出对疾病诊断和预测有帮助的生物标志物。
金融风险预警模型中的特征选择与建模金融风险预警模型是金融机构和市场监管机构进行风险管理的重要工具。
特征选择和建模是构建可靠的预警模型的关键步骤。
本文将深入探讨金融风险预警模型中的特征选择和建模的重要性,并介绍一些常用的技术和方法。
1. 特征选择特征选择是从大量的可能预测变量中选择最具预测能力的变量。
在金融风险预警模型中,合理的特征选择可以提高模型的准确性和效率,减少维度灾难、避免过拟合等问题。
(1)过滤式特征选择过滤式特征选择是根据变量与目标变量之间的关系进行筛选。
常用的指标有互信息、相关系数、卡方检验等。
通过这些指标,我们可以选择与目标变量相关性较强的特征。
(2)包裹式特征选择包裹式特征选择是利用机器学习算法进行特征选择。
它模拟了实际预测过程,通过反复训练模型,并通过交叉验证或其他评估方法来确定最佳特征子集。
常用的算法有逻辑回归、支持向量机、决策树等。
(3)嵌入式特征选择嵌入式特征选择是在模型训练过程中同时进行特征选择和模型训练。
常见的嵌入式特征选择算法有LASSO、岭回归、弹性网等。
这些算法会自动选择对模型具有重要影响的特征,并进行正则化处理来防止过拟合。
2. 建模建模是根据选定的特征进行模型的训练与评估。
在金融风险预警模型中,常见的建模方法包括逻辑回归、支持向量机、随机森林等。
(1)逻辑回归逻辑回归是一种广泛应用于分类问题的线性模型。
它可以通过最大似然估计方法估计出各个特征的权重,进而得到风险预测的概率。
逻辑回归不仅可以预测二分类问题,还可以通过改进方法预测多分类问题。
(2)支持向量机支持向量机是一种基于统计学习理论的分类算法。
它通过建立一个最大间隔的超平面来实现分类。
支持向量机在处理高维数据和非线性问题时表现出色,但它也有可能引入过拟合问题需要进一步处理。
(3)随机森林随机森林是一种集成学习方法,能够通过构建多个决策树进行预测。
它通过投票或平均的方式来获得最终的预测结果。
随机森林具有较强的鲁棒性和预测能力,适用于处理较大规模的数据集。
mat方法Mat方法是一种常用的科学计算工具,在数据分析、机器学习和统计建模等领域得到广泛应用。
本文将介绍Mat方法的基本概念、使用场景和常见应用案例。
一、什么是Mat方法Mat方法是一种基于矩阵运算的数学计算方法,它可以用来处理大规模的数据集和复杂的数学模型。
Mat方法的核心是矩阵运算,通过对矩阵进行加减乘除、转置、求逆等操作,可以实现对数据的处理、分析和建模。
二、Mat方法的使用场景Mat方法适用于各种数据分析和建模场景,包括但不限于以下几个方面:1. 数据预处理:在数据分析之前,通常需要对原始数据进行清洗和转换。
Mat方法可以通过矩阵运算,快速高效地处理大规模的数据集,例如实现数据的归一化、标准化和缺失值处理等。
2. 特征选择:在机器学习和统计建模中,特征选择是一个关键的步骤。
Mat方法可以通过计算特征之间的相关性、方差和重要性等指标,帮助我们选择最具代表性和区分度的特征,从而提高模型的准确性和泛化能力。
3. 模型建立:在模型建立阶段,Mat方法可以用来构建各种数学模型,包括线性回归、逻辑回归、支持向量机、决策树、随机森林等。
通过矩阵运算和优化算法,Mat方法可以帮助我们拟合模型参数,最小化损失函数,从而得到最优的模型。
4. 模型评估:在模型建立之后,我们需要对模型进行评估和验证。
Mat方法可以通过计算预测结果与实际结果之间的误差、准确率、召回率、F1值等指标,来评估模型的性能和泛化能力。
三、Mat方法的常见应用案例1. 股票预测:利用Mat方法可以构建时间序列模型,对股票价格进行预测。
通过矩阵运算和优化算法,可以找到最佳的模型参数,从而提高股票预测的准确性。
2. 文本分类:在自然语言处理中,文本分类是一个重要的任务。
通过将文本转换为矩阵表示,可以利用Mat方法构建文本分类模型。
例如,可以使用词袋模型将文本转换为词频矩阵,然后通过矩阵运算和分类算法,对文本进行分类。
3. 图像处理:在计算机视觉领域,Mat方法可以用来处理图像数据。
掌握机器学习的特征选择和降维方法特征选择和降维是机器学习中非常重要的两个步骤。
在处理大规模数据集和高维数据时,选择合适的特征和降低维度可以提高模型的效率和准确性。
本文将介绍机器学习中常用的特征选择和降维方法,以及它们的应用。
一、特征选择方法特征选择是从原始特征集中选择出对目标变量有关系的最重要的特征。
常用的特征选择方法包括过滤式、包裹式和嵌入式三种。
1.过滤式特征选择过滤式特征选择独立于机器学习算法,通过统计方法或者特征相关度评估来选择特征。
常用的方法有皮尔逊相关系数、卡方检验、互信息和方差分析等。
这些方法能够评估特征与目标变量之间的相关性,从而选择出与目标变量相关性较高的特征。
2.包裹式特征选择包裹式特征选择使用实际的机器学习算法来评估特征的好坏。
它通过反复训练机器学习模型,并根据特征子集的性能进行评估和选择。
常用的包裹式特征选择方法有基于遗传算法的方法和递归特征消除等。
这些方法能够更准确地选择出对于机器学习算法性能影响较大的特征。
3.嵌入式特征选择嵌入式特征选择将特征选择融入到机器学习算法中,直接通过算法本身来选择特征。
经典的嵌入式特征选择方法有L1正则化和决策树算法等。
这些方法能够通过特征权重或者特征重要性指标来选择特征。
二、降维方法降维是将原始数据映射到一个低维空间中,减少数据的维度。
降维的目标是保留尽量多的数据信息,同时减少数据的复杂度和计算开销。
常用的降维方法包括主成分分析(PCA)、线性判别分析(LDA)和因子分析等。
1.主成分分析(PCA)主成分分析是一种常用的无监督降维技术,通过线性变换将原始特征映射到新的低维子空间中。
它能够最大化数据方差,实现降维的同时保留较多的数据信息。
主成分分析在图像处理、模式识别和数据可视化等领域有着广泛的应用。
2.线性判别分析(LDA)线性判别分析是一种有监督降维方法,它同时考虑了数据映射到低维空间后的类别可分性和类内紧凑性。
线性判别分析在模式识别和人脸识别等领域有着重要的应用。
su 优化模型的方法在优化模型的过程中,可以采用多种方法来提高模型的性能和效果。
以下是一些常用的模型优化方法:1.数据预处理:对原始数据进行清洗、去噪、归一化等处理,以消除数据中的无效信息和噪声,提高数据质量。
2.特征选择:通过分析相关性、信息增益等指标,选择最相关的特征进行建模,减少特征维度和噪声的干扰,提高模型的泛化能力。
3.特征转换:将原始特征进行变换和组合,生成新的特征。
例如,可以通过多项式特征、离散化、独热编码等方式,提取更具信息量的特征,帮助模型捕捉更多的数据模式。
4.模型选择:根据问题的性质和数据的分布,选择合适的模型进行建模。
例如,对于线性关系较强的问题,可以选择线性回归模型;对于非线性问题,可以选择决策树、支持向量机、神经网络等模型。
5.模型调参:通过调整模型的超参数,如学习率、正则化系数、树的深度等,来寻找最优参数组合,提高模型的拟合能力和泛化能力。
可以利用网格、随机等方法来寻找最优参数。
6.模型集成:通过将多个弱学习器集成成一个强学习器,提高模型的性能。
常用的模型集成方法包括堆叠模型、投票模型、集成学习等。
7.正则化:通过在损失函数中引入正则项,限制模型的复杂度,防止过拟合。
常用的正则化方法有L1正则化、L2正则化等。
8.数据增强:通过对原始数据进行变换、扩增,增加模型的训练样本,提高模型的泛化能力。
例如,可以通过镜像、旋转、缩放等操作,生成更多的样本。
9.异常检测:通过识别和处理异常值,减少其对模型的影响。
可以利用统计分析、聚类等方法来识别异常值。
10.模型压缩:通过剪枝、量化等方法,减少模型的存储空间和计算复杂度,提高模型的效率和速度。
总之,通过以上优化方法,可以改善模型的精确度、泛化能力、计算效率和鲁棒性,从而提高模型在实际应用中的性能和效果。
但是需要根据具体问题和数据特点来选择适合的优化方法,以达到最佳的模型优化效果。
特征选择方法特征选择是机器学习和数据挖掘中非常重要的一步,它可以帮助我们从大量的特征中选择出对于问题解决有用的特征,从而提高模型的性能和效率。
在实际应用中,特征选择方法有很多种,包括过滤式、包裹式和嵌入式等。
本文将介绍几种常用的特征选择方法,帮助大家更好地理解和应用特征选择。
1. 过滤式特征选择。
过滤式特征选择是在特征选择和学习器训练之前进行的,它通过对特征进行评估和排序,然后选择出排名靠前的特征作为最终的特征集合。
常用的评估指标包括信息增益、方差分析、相关系数等。
过滤式特征选择的优点是计算简单,速度快,但缺点是没有考虑到学习器的性能,可能会选择出对学习任务无用的特征。
2. 包裹式特征选择。
包裹式特征选择是将特征选择过程嵌入到学习器的训练过程中,它直接使用学习器的性能作为特征选择的评价标准,从而能够更准确地选择出对学习任务有用的特征。
常用的方法包括递归特征消除、基于模型的特征选择等。
包裹式特征选择的优点是能够充分考虑学习器的性能,但缺点是计算复杂,速度较慢。
3. 嵌入式特征选择。
嵌入式特征选择是将特征选择过程嵌入到学习器的训练过程中,它通过正则化方法或者模型参数的学习来选择出对学习任务有用的特征。
常用的方法包括L1正则化、决策树剪枝等。
嵌入式特征选择的优点是能够充分考虑学习器的性能,计算相对较快,但缺点是可能会受到学习器类型的限制。
在实际应用中,选择合适的特征选择方法非常重要,需要根据具体的问题和数据集来进行选择。
有时候也可以结合多种特征选择方法来进行特征选择,以达到更好的效果。
另外,特征选择并不是一劳永逸的过程,随着数据的变化和问题的演化,特征选择也需要不断地进行调整和优化。
总结而言,特征选择是机器学习和数据挖掘中非常重要的一步,它可以帮助我们提高模型的性能和效率。
常用的特征选择方法包括过滤式、包裹式和嵌入式特征选择,每种方法都有其优点和局限性,需要根据具体情况进行选择和调整。
希望本文介绍的内容能够帮助大家更好地理解和应用特征选择方法,提高数据分析和建模的能力。
molder建模中的特征选择在数据挖掘和机器学习领域,特征选择是指从已有的特征中选择一组最具有预测能力的特征,用于构建一个高效的机器学习模型。
特征选择对于模型的性能和解释力具有重要影响,因此它是数据建模中不可忽视的一个环节。
特征选择的目标是减少特征空间的维度,提高模型的表现并提供更好的解释性。
特征选择的主要优点包括:1.提高模型的性能:通过选择最具有预测能力的特征,可以降低噪声和冗余特征对模型的影响,从而提高模型的准确性和泛化能力。
2.加快模型的训练速度:特征选择可以减少特征的数量,从而降低模型训练和预测的时间成本。
3.提供更好的可解释性:通过选择最相关的特征,可以更好地理解模型的结果和预测过程。
特征选择的方法可以分为三类:过滤法、包装法和嵌入法。
过滤法是一种快速且不需要依赖特定模型的特征选择方法。
它通过计算特征与目标变量之间的统计关系,然后根据事先设定的阈值或其他准则来筛选特征。
常用的过滤法包括相关性分析、方差分析和互信息等。
相关性分析是一种常用的过滤法。
它通过计算特征和目标变量之间的相关系数或其他相关度量,来判断特征是否与目标变量相关。
相关系数的取值范围为[-1,1],其中正值表示正相关,负值表示负相关,绝对值越接近于1表示相关性越强。
在特征选择过程中,我们可以设定一个阈值,只选择相关系数超过阈值的特征。
互信息是一种用于衡量两个变量之间依赖关系的信息论方法。
它可以度量特征和目标变量之间的共享信息量,从而判断特征的重要性。
互信息的取值范围为[0,+∞),值越大表示特征与目标变量的依赖程度越高。
包装法是一种基于特定模型的特征选择方法。
它通过训练模型并进行交叉验证来评估不同特征组合的性能,然后选择性能最好的特征组合。
包装法需要反复训练模型,因此计算成本较高。
常见的包装法有递归特征消除、遗传算法和正向等。
递归特征消除是一种常用的包装法。
它通过重复训练模型和移除最不重要特征的过程,来选择最优特征子集。
特征选择方法
特征选择在机器学习和数据挖掘任务中起着关键的作用。
它可以帮助我们从原始数据中选择出最具有预测能力的特征,以提高模型的性能和效果。
针对特征选择问题,常用的方法有:
1. 过滤法(Filter Method):该方法通过对特征进行统计学分析,如相关系数、卡方检验等,从中选择与目标变量最相关的特征。
常用的过滤法有相关系数法、信息增益法、方差选择法等。
2. 包裹法(Wrapper Method):该方法将特征选择看作是一个
搜索问题,通过不断地构建模型并评估性能,来确定最佳的特征子集。
常用的包裹法有递归特征消除法(RFE)和遗传算法等。
3. 嵌入法(Embedded Method):该方法是在学习算法的过程中,通过正则化(如L1正则化)或构建专门的特征选择模型,来对特征的重要性进行评估和选择。
常用的嵌入法有Lasso回归、岭回归等。
4. 基于树模型的方法:该方法通过决策树等树模型,根据特征的重要性进行特征选择。
常用的方法有信息增益、基尼系数等。
除了以上方法,还有一些其他的特征选择方法,如基于稳定性的方法、深度学习中的特征选择方法等。
这些方法可以根据具体的任务和数据集的特点来选择合适的方法进行特征选择。
特征选择的目的是为了去除无关特征、降低数据维度以及提高模型性能等。
正确选择合适的特征选择方法,可以帮助我们更好地理解数据并提高模型的预测能力。
特征建模方法特征建模方法是指在数据挖掘和机器学习领域中,将原始数据转换成有用的特征与特征集合的技术过程。
具体来说,它是一种将原始数据转换成特征的过程,这些特征可以用于训练和构建分类器或其他算法。
该方法旨在提高分类器或最终算法的准确性和性能。
下面将介绍一些特征建模方法。
1. 特征选择特征选择是从原始数据中选择最相关的特征,这些特征可以提高训练和构建分类器或其他算法的性能。
这种方法可以通过过滤或包装的方式实现。
过滤方法利用特征之间的相关性或重要性来选择特征。
包装方法则通过构建多个模型并评估其性能来选择特征。
2. 主成分分析主成分分析(PCA)是一种用于降维的技术,它可以将高维数据转换成低维数据,并保留大部分的信息和方差。
该方法通过将数据投影到新的轴上来实现降维。
这些新轴将保留原始数据的最大方差。
这种方法可以用于降低特征集的维数,从而提高分类器或算法的性能。
3. 独热编码独热编码(One-Hot Encoding)是一种将分类变量转换成数字变量的方法。
该方法为每个分类变量创建一个二进制变量,并将它们设置为1或0,表示该变量是否出现。
这种方法可以将分类数据用于分类器或算法的训练和构建,从而提高其性能。
4. 交叉特征交叉特征是指将两个或多个特征结合在一起创建一个新变量的方法。
这种方法可以捕捉特征之间的交互作用,并将其用于训练和构建分类器或其他算法。
例如,将两个特征合并为一个新特征,可以使分类器更好地识别某些模式和关联性。
5. Word2VecWord2Vec是一种基于向量的方法,用于捕捉单词之间的语义和上下文关系。
该方法将每个单词表示为一个向量,并使用单词在上下文中的相对位置来捕捉其含义。
这种方法可以用于将自然语言文本转换成数值特征,并将其用于分类器或算法的训练和构建。
数学建模曲线拟合模型在数据分析与预测中,曲线拟合是一个重要的步骤。
它可以帮助我们找到数据之间的潜在关系,并为未来的趋势和行为提供有价值的洞察。
本篇文章将深入探讨数学建模曲线拟合模型的各个方面,包括数据预处理、特征选择、模型选择、参数估计、模型评估、模型优化、模型部署、错误分析和调整等。
一、数据预处理数据预处理是任何数据分析过程的第一步,对于曲线拟合尤为重要。
这一阶段的目标是清理和准备数据,以便更好地进行后续分析。
数据预处理包括检查缺失值、异常值和重复值,以及可能的规范化或归一化步骤,以确保数据在相同的尺度上。
二、特征选择特征选择是选择与预测变量最相关和最有信息量的特征的过程。
在曲线拟合中,特征选择至关重要,因为它可以帮助我们确定哪些变量对预测结果有显著影响,并简化模型。
有多种特征选择方法,如基于统计的方法、基于模型的方法和集成方法。
三、模型选择在完成数据预处理和特征选择后,我们需要选择最适合数据的模型。
有许多不同的曲线拟合模型可供选择,包括多项式回归、指数模型、对数模型等。
在选择模型时,我们应考虑模型的预测能力、解释性以及复杂性。
为了选择最佳模型,可以使用诸如交叉验证和网格搜索等技术。
四、参数估计在选择了一个合适的模型后,我们需要估计其参数。
参数估计的目标是最小化模型的预测误差。
有多种参数估计方法,包括最大似然估计和最小二乘法。
在实践中,最小二乘法是最常用的方法之一,因为它可以提供最佳线性无偏估计。
五、模型评估在参数估计完成后,我们需要评估模型的性能。
这可以通过使用诸如均方误差(MSE)、均方根误差(RMSE)和决定系数(R²)等指标来完成。
我们还可以使用诸如交叉验证等技术来评估模型的泛化能力。
此外,可视化工具(如残差图)也可以帮助我们更好地理解模型的性能。
六、模型优化如果模型的性能不理想,我们需要对其进行优化。
这可以通过多种方法实现,包括增加或减少特征、更改模型类型或调整模型参数等。
特征选择方法在建模中的应用
——以CHAID树模型为例
华东师范大学邝春伟
特征选择是指从高维特征集合中根据某种评估标准选择输出性能最优的特征子集,其目的是寻求保持数据集感兴趣特性的低维数据集合,通过低维数据的分析来获得相应的高维数据特性,从而达到简化分析、获取数据有效特征以及可视化数据的目标。
目前,许多机构的数据均已超载,因此简化和加快建模过程是特征选择的根本优势。
通过将注意力迅速集中到最重要的字段(变量)上,可以降低所需的计算量,并且可以方便地找到因某种原因被忽略的小而重要的关系,最终获得更简单、精确和易于解释的模型。
通过减少模型中的字段数量,可以减少评分时间以及未来迭代中所收集的数据量。
减少字段数量特别有利于Logistic 回归这样的模型。
SPSS Modeler是一个非常优秀的数据挖掘软件。
它的前身是SPSS Clementine及PASW Modeler。
该软件
的特征选择节点有助于识别用于预测特定结果的最重要的字段。
特征选择节点可对成百乃至上千个预测变量进行筛选、排序,并选择出可能是最重要的预测变量。
最后,会生成一个执行地更快且更加有效的模型—此模型使用较少的预测变量,执行地更快且更易于理解。
案例中使用的数据为“上海高中生家庭教育的调查”,包含有关该CY二中的304名学生参与环保活动的信息。
该数据包含几十个的字段(变量),其中有学生年龄、性别、家庭收入、身体状况情况等统计量。
其中有一个“目标”字段,显示学生是否参加过环保活动。
我们想利用这些数据来预测哪些学生最可能在将来参加环保活动。
案例关注的是学生参与环保活动的情况,并将其作为目标。
案例使用CHAID树构建节点来开发模型,用以说明最有可能参与环保活动的学生。
其中对以下两种方法作了对比:
•不使用特征选择。
数据集中的所有预测变量字段
均可用作CHAID 树的输入。
•使用特征选择。
使用特征选择节点选择最佳的4
个预测变量。
然后将其输入到CHAID 树中。
通过比较两个生成的树模型,可以看到特征选择如何产生有效的结果。
CHAID或卡方自动交互效应检测是一种通过使用卡
方统计量识别最优分割来构建决策树的分类方法。
CHAID 首先检查每个预测变量和结果之间的交叉列表,然后使用卡方独立性测试来检验显著性。
如果以上多个关系具有显著的统计意义,则CHAID将选择最重要(p 值最小)的预测变量。
如果预测变量具有两个以上的类别,将会对这些类别进行比较,然后将结果中未显示出差异的类别合并在一起。
此操作通过将显示的显著性差异最低的类别对相继合并在一起来实现。
当所有剩余类别在指定的检验级别上存在差异时,此类别合并过程将终止。
对于集合预测变量,可以合并任何类别;对于有序集合预测变量,只能合并连续的类别。
在一个空流工作区中,放置一个Statistics 文件源节点。
将此节点指向案例数据文件“上海高中生家庭教育的调查”。
添加类型节点。
在其“类型”选项卡上,将变量“q23是否参与过环保活动”的方向更改为输出。
将学生ID 字段的方向更改为无。
将所有其他字段的方向设
置为输入。
为流添加特征选择建模节点。
在此选项卡上,我们指定要筛选的规则和标准,或要筛选的字段。
例如在重要性指标中,我们可以设置“重要”的最小值及“一般重要”的最小值。
执行流以生成特征选择模型块。
在模型管理器中右键单击模型块,选择浏览以查看结果。
顶部面板显示了所找到的对预测非常有用的字段。
这些字段基于重要性排序。
底部面板显示了从分析中筛选出来的字段及筛选的原因。
通过检查顶部面板中的字段,可以确定在随后的建模会话中要使用哪些字段。
使用生成的特征选择模型,将其添加到流中,并将其与类型节点相连接。
双击该节点并使用模型浏览器以选择要在下游使用的字段。
虽然最初已将12个字段识别为重要字段和一般重要字段,但我们希望进一步减少预测变量集合的数目。
使用复选标记选中前
4个预测变量:
性别
q17(加强环保意识教育
的重要性)
q5 (整理房间经常性)q3 (征得父母同意?)
目标变量及4个预测变量的详细情况
目标变量(应变量)
Q23.您有没有为保护环境做过什么事情?
1. 没有
2. 有(请注明)
预测变量(自变量)
D1.您的性别是
1. 男
2. 女
Q3.您做学习之外的其它事情,是否需要征得父母同意?
1. 总是
2. 经常
3. 有时
4. 偶尔
5. 从不
Q5.您自己整理房间经常性如何?
1. 总是
2. 经常
3. 有时
4. 偶尔
5. 从不
Q17.您认为加强环保意识教育的重要性程度如何?
1. 非常重要
2. 比较重要
3. 一般
4. 不太重要
5. 一点也不重要
为了比较结果,我们向流中添加两个CHAID 建模节点:一个模型使用特征选择,另一个模型不使用特征选择。
将其中的一个模型连接到类型节点,另一个模型连接到已生成的特征选择模型。
在每个CHAID 节点上,选择节点设置中的启动交互会话选项。
以便展示模型的输出结果——生长树及模型提升情况。
执行使用数据集中所有预测变量的CHAID 节点(即连接到类型节点的节点)。
当节点执行时,注意观察执行节点所用的时间。
表会显示在结果窗口中。
从菜单中,选择树> 生长树,可生成并显示展开的树。
对另一个CHAID 节点(此节点仅使用4个预测变量)执行相同的操作,发现:
第二个模型的执行速度应比第一个模型快。
第二个树比第一个树包含的树节点也要少。
因此更易于理解。
但在决定使用此模型之前,需要查明此模型是否有效,并查明其与使用所有预测变量的模型相比较的结果。
打开树构建器后再次生成树。
在每个收益表中,都将其树的终端节点分组为四分位数。
要比较两个模型的有效性,可查看每个表中25% 分位数的提升(指数值)。
包括所有预测变量时,模型显示提升值170%。
即,具有这些节点中的特征的学生,其响应目标参与环保互动的可能性是其他学生的1.7倍。
要查看这些具体特征,可单击以选定顶部的行。
然后切换到“查看器”选项卡,其中相应的节点正以黑色突出显示。
沿树往下寻找每个突出显示的终端节点以查明这些预测变量是如何分割的。
25% 分位数自身包括4个节点。
如果仅包括前4个预测变量(由特征选择识别),则提升值为148%。
虽然此模型不如使用所有预测变量的模型那样有效,但它无疑也是有用的。
并且此模型25% 分位数仅包括3个节点,因此它更简单。
因此,我们可以确定特征选择模型比使用所有预测变量的模型更优越。
总结
使用较少的预测变量会降低成本。
这意味着要收集、处理和输入模型的数据减少。
并且节省了计算时间。
在本案例中,即使增加了额外的特征选择步骤,但因具有较小的预测变量集合,模型构建的速度也明显提高。
如果使用较大的实际数据集,则节省的时间应大大增加。
使用数目较少的预测变量会使评分更加简单。
如案例所示,可能仅需识别有可能参与环保活动的学生的4 个而不是12 个特征。
请注意,如果预测变量数越多,则过度拟合模型的风险越大。
生成的模型越简单,则对其他数据集会越有利。