决策树例题经典案例
- 格式:docx
- 大小:24.28 KB
- 文档页数:2
大一决策树例题简单案例
嘿,朋友们!今天咱来聊聊大一决策树的简单案例。
就比如选社团这事吧,大一刚入学,那社团多得让人眼花缭乱啊!这就像一棵决策树摆在你面前。
你看哈,喜欢运动的,有篮球社、足球社可以选。
那是不是得想想,自己更喜欢篮球呢,还是足球呢?“哎呀,这可太难选了!”这时候决策树就派上用场啦。
要是觉得自己篮球技术还行,还特别享受那种团队配合的感觉,那篮球社也许就是个不错的选择,这就是决策树其中的一个分支呀。
但又一想,足球也挺有意思的,能在草地上尽情奔跑,那多爽!这又是另一个分支。
这不就跟决策树一样嘛!在每个节点都要做出选择。
像选专业也是同理呀,是选热门的计算机专业呢,还是自己一直感兴趣的文学专业呢?这都是要好好琢磨的呀!“哎呀呀,真让人纠结!”
再比如说交朋友吧,遇到不同性格的人,是不是得考虑跟谁能更合得来?这也是决策树上的一个个选择呀!是和那个活泼开朗的一起玩,还是和那个沉稳内敛的成为朋友呢?这需要我们在大一的时候好好去判断,做出适合自己的决策。
大一就是这样一个充满各种选择和可能的阶段,就像走在一片森林里,要找到属于自己的那条路。
而决策树就是我们的好帮手,帮助我们理清思路,做出明智的选择。
所以呀,大家一定要好好利用决策树这个工具哦,可别小瞧了它!让我们在大一的时候,通过决策树做出那些对我们未来有重要影响的决策,开启一段精彩的大学生活吧!。
决策树案例决策树是一种常见的机器学习算法,它通过使用树状数据结构建立模型,并根据特征选择来做出决策。
以下是一个决策树的案例:假设我们要建立一个决策树模型来预测一个人是否会购买一款新的电视。
我们收集了一些关于不同人群的数据,包括他们的年龄、性别、收入水平和是否购买电视的记录。
我们首先根据这些特征来构建决策树。
我们首先选择一个特征来作为根节点,根据这个节点将数据分为不同的类别。
在这个例子中,我们可以选择收入水平作为根节点。
我们检查每个人的收入水平,将收入水平低于一定阈值的人标记为“不购买”,收入水平高于阈值的人标记为“购买”。
下一步我们考虑子节点,即进入左子树和右子树的条件。
我们可以选择不同的特征来作为子节点。
在这个例子中,我们可以选择年龄作为左子树的条件,性别作为右子树的条件。
我们根据这些条件进一步细分人群。
例如,对于左子树,我们可以选择年龄小于一定阈值的人群。
如果他们的收入水平低于另一个阈值,我们将他们标记为“不购买”;如果他们的收入水平高于阈值,我们将他们标记为“购买”。
对于右子树,我们可以根据性别进一步分类。
通过不断选择特征和条件,我们可以构建出一个树状结构。
在最后一层,我们可以得到最终的决策结果。
根据这个决策树模型,我们可以根据一个人的特征来预测他是否会购买电视。
决策树的优点是易于理解和解释,可以处理多种数据类型,包括数值型和分类型。
它也可以处理缺失值和异常值,并且对于大型数据集可以高效地进行训练和预测。
然而,决策树也有一些缺点。
它容易过拟合,即在训练集上表现良好但在测试集上表现较差。
为了解决这个问题,可以通过剪枝等技术来限制决策树的复杂度。
另外,决策树对于特征选择比较敏感,不同的选择可能得到不同的结果。
总而言之,决策树是一个用于分类和回归的常见机器学习算法。
通过选择特征和条件,我们可以构建出一个树状结构,用于预测未知数据的类别或数值。
虽然决策树有一些缺点,但它仍然是一个有用的工具,在实际应用中被广泛使用。
【决策树习题练习(答案)】决策树习题练习答案1.某投资者预投资兴建一工厂,建设方案有两种:①大规模投资300万元;②小规模投资160万元。
两个方案的生产期均为10年,其每年的损益值及销售状态的规律见表15。
试用决策树法选择最优方案。
表1各年损益值及销售状态销售状态概率损益值(万元/年)大规模投资小规模投资销路好0.710060销路差0.3-2020【解】(1)绘制决策树,见图1;100×10-20×1060×1020×10销路好0.7销路差(0.3)销路好0.7销路差(0.3)大规模小规模340340320231图1习题1决策树图(2)计算各状态点的期望收益值节点②:节点③:将各状态点的期望收益值标在圆圈上方。
(3)决策比较节点②与节点③的期望收益值可知,大规模投资方案优于小规模投资方案,故应选择大规模投资方案,用符号“//”在决策树上“剪去”被淘汰的方案。
2.某项目有两个备选方案A和B,两个方案的寿命期均为10年,生产的产品也完全相同,但投资额及年净收益均不相同。
A方案的投资额为500万元,其年净收益在产品销售好时为150万元,,销售差时为50万元;B方案的投资额为300万元,其年净收益在产品销路好时为100万元,销路差时为10万元,根据市场预测,在项目寿命期内,产品销路好时的可能性为70%,销路差的可能性为30%,试根据以上资料对方案进行比选。
已知标准折现率ic=10%。
【解】(1)首先画出决策树1505010010销路好0.7销路差0.3销路好0.7销路差0.3-500-300231图2决策树结构图此题中有一个决策点,两个备用方案,每个方案又面临着两种状态,因此可以画出其决策树如图18。
(2)然后计算各个机会点的期望值机会点②的期望值=150(P/A,10%,10)×0.7+(-50)(P/A,10%,10)×0.3=533(万元)机会点③的期望值=100(P/A,10%,10)×0.7+10(P/A,10%,10)×0.3=448.5(万元)最后计算各个备选方案净现值的期望值。
决策树案例实现代码:1# -*- coding: utf-8 -*-2"""3Created on Wed Aug 29 14:52:09 201845@author: zhen6"""7import numpy as np8from sklearn.tree import DecisionTreeRegressor9import matplotlib.pyplot as plt10 n = 10011 x = np.random.rand(n) * 6 - 3 # ⽣成100个范围在-3~3的数据12 x.sort() #排序1314 y = np.sin(x) + np.random.rand(n) + 0.0515 x = x.reshape(-1, 1) #把数据转成任意⾏⼀列类型16 y = y.reshape(-1, 1)1718 decision_tree_regressor = DecisionTreeRegressor(criterion='mse', max_depth=3)19 decision_tree_regressor.fit(x, y)2021 x_test = np.linspace(-3, 3, 50).reshape(-1, 1) # 创建等差数列22 y_hat = decision_tree_regressor.predict(x_test)2324 plt.plot(x, y, "y^", label="actual")25 plt.plot(x_test, y_hat, "b-", linewidth=2, label="predict")2627 plt.legend(loc="upper left")28 plt.grid()29 plt.show()3031# ⽐较不同深度的决策树32 depth = [2, 4, 6, 8, 10]33 color = 'rgbmy'34 dec_tree_reg = DecisionTreeRegressor()3536 plt.plot(x, y, "ko", label="actual")37 x_test = np.linspace(-3, 3, 50).reshape(-1, 1)38for d, c in zip(depth, color):39 dec_tree_reg.set_params(max_depth=d)40 dec_tree_reg.fit(x, y)41 y_hat = dec_tree_reg.predict(x_test)42 plt.plot(x_test, y_hat, '-', color=c, linewidth=2, label="depth=%d" % d)4344 plt.legend(loc="upper left")45 plt.grid(b=True)46 plt.show()结果:不同深度对预测的影响:总结: 决策树分量算法有构造速度快、结构明显、分类精度⾼等优点。
cart决策树例题简单案例决策树是一种常用的机器学习算法,可以用于分类和回归问题。
它通过对特征进行划分来建立一个树状的决策流程,从而对新的样本进行预测或分类。
在本文中,我们将通过一个简单的案例来介绍决策树的基本原理和应用。
假设我们有一个购物车数据集,其中包含了一些特征和对应的标签。
我们的目标是根据这些特征来预测一个购物车是否会购买商品。
首先,我们需要加载数据集并进行数据预处理。
数据预处理的目的是将原始数据转换为适用于决策树算法的格式。
我们可以使用Python的pandas库来完成这些任务。
```pythonimport pandas as pd# 加载数据集data = pd.read_csv('shopping_cart.csv')# 数据预处理# ...```接下来,我们需要选择用于构建决策树的特征。
在这个例子中,我们假设特征包括购买的商品种类、购买的商品数量以及购物车的总价。
根据经验,我们可以选择购买的商品种类和购物车的总价作为特征,因为它们可能与购买行为更相关。
然后,我们将数据集分为训练集和测试集。
训练集用于构建决策树模型,而测试集用于评估模型的性能。
```pythonfrom sklearn.model_selection import train_test_split# 选择特征和标签X = data[['商品种类', '购物车总价']]y = data['购买']# 划分训练集和测试集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2,random_state=42)```接下来,我们可以使用scikit-learn库中的DecisionTreeClassifier类来构建决策树模型。
```pythonfrom sklearn.tree import DecisionTreeClassifier# 构建决策树模型model = DecisionTreeClassifier()# 在训练集上训练模型model.fit(X_train, y_train)```训练完成后,我们可以使用训练好的模型对测试集进行预测,并评估模型的性能。
造价工程师《案例分析》定式:决策树决策树:定案、定图、定量案例一【授课案例,P125 案例五】某承包商面临 A、B 两项工程投标,因受本单位资源限制,只能选择其中一项工程投标,或者两项工程均不投标。
根据过去类似工程投标的经验数据,A 工程投高标中标的概率为 0.3,投低标中标的概率为 0.6,编制投标文件的费用为 3 万元。
B 工程投高标的中标概率为 0.4,投低标的中标概率为 0.7,编制投标文件的费用为 2 万元。
相关数据如下:问题:优选投标方案答案:①(150×0.3+100×0.5+50×0.1)×0.3-3×0.7=29.40 万元②(110×0.2+60×0.7)×0.6-3×0.4=37.20 万元③(110×0.4+70×0.5+30×0.1)×0.4-2×0.6=31.60 万元④(70×0.2+30×0.5-10×0.3)×0.7-20.3=17.60 万元⑤0②点期望值最大,优选 A 低标投标方案案例二【P128 案例六】某承包商经研究决策参加某工程投标。
经造价工程师估价,该工程估算成本为 1500 万元,其中材料费占 60%。
该工程业主在招标文件中明确规定采用固定总价合同。
经预测,在施工过程中材料费可能平均上涨 3%,其发生的概率为 0.4。
经研究有高、中、低三个报价方案,其利润率分别为 10%、7%、4%,根据近三年类似工程的投标经验,相应的中标概率分别为 0.3、0.6、0.9。
编制投标文件的费用为 5 万元。
问题:1.优选投标方案2.针对优选的投标方案,其相应的不含税报价为多少?答案1.1500×60%×3%=27 万元(1)1500×10%-27=123 万元(2)1500×7%-27=78 万元(3)1500×4%-27=33 万元①点(150×0.6+123×0.4)×0.3-5×0.7=38.26 万元②点(105×0.6+78×0.4)×0.6-5×0.4=54.52 万元③点(60×0.6+33×0.4)×0.9-5×0.1=43.78 万元②点期望值最大,优选中报价方案2.1500×1.07=1605 万元案例三【P16 案例九】某企业生产的某种产品在市场上供不应求,该企业决定投资扩建。
决策树算法例题经典决策树是一种常用的机器学习算法,用于处理分类和回归问题。
它通过对数据集进行划分,构建一个树状模型来进行决策。
在这篇文章中,我将介绍一个经典的决策树算法的例子,并详细解释其原理和实现方法。
假设我们有一个数据集,里面包含了一些患有乳腺癌的病人的信息。
每个病人的信息都有一些特征,比如年龄、乳房厚度、肿块大小等。
我们的任务是根据这些特征预测病人是否患有乳腺癌。
首先,我们需要选择一个合适的划分准则来构建决策树。
常用的划分准则有信息增益、信息增益比、基尼指数等。
在本例中,我们选择使用信息增益作为划分准则。
接下来,我们需要计算每个特征的信息增益。
信息增益是根据特征划分前后的熵变化来衡量的。
熵是一个用于度量系统无序程度的指标,越大表示越无序,越小表示越有序。
在本例中,我们可以通过计算患有乳腺癌和未患有乳腺癌的病人的比例来计算熵。
然后,我们选取信息增益最大的特征作为当前节点的划分特征。
这样可以使得划分后的子集的熵最小化,从而提高分类的准确性。
接着,我们递归地对每个子集进行上述操作,直到满足停止条件。
停止条件可以是子集中只有一类样本或没有更多的特征可供选择划分。
在实现决策树算法时,我们需要解决一些问题。
首先,如何选择划分特征。
上述例子中我们选择了信息增益最大的特征作为划分特征,但也可以选择其他准则。
其次,如何处理缺失值。
在实际应用中,数据集中可能会有一些缺失值,我们需要考虑如何处理这些缺失值。
最后,如何处理连续型特征。
决策树算法本质上是一个离散型算法,对于连续型特征,我们需要进行离散化处理。
决策树算法是一种简单但有效的机器学习算法,可以用于处理分类和回归问题。
它具有可解释性好、易于理解和实现等优点,在实际应用中得到了广泛的应用。
然而,决策树算法也存在一些限制,比如容易过拟合、适应性较差等。
为了提高决策树算法的性能,可以使用集成学习方法,如随机森林、梯度提升树等。
总之,决策树算法是一种经典的机器学习算法,本文介绍了它的原理和实现方法,并给出了一个实际应用的例子。
决策树例题经典案例
决策树是一种常见的机器学习算法,它通过对数据集进行划分,构建一颗树形结构来进行决策预测。
在实际应用中,决策树被广泛运用于金融、医疗、营销等领域,帮助人们进行决策分析和预测。
下面我们将通过几个经典案例来深入理解决策树的应用。
案例一,贷款申请。
假设银行需要根据客户的个人信息来决定是否批准其贷款申请。
我们可以利用决策树来构建一个贷款申请的决策模型。
首先,我们需要收集客户的个人信息,比如年龄、收入、信用记录等。
然后,我们将这些信息作为特征,构建决策树模型。
通过对客户信息的分析,决策树可以帮助银行进行贷款申请的预测,提高贷款申请的审批效率。
案例二,疾病诊断。
医疗领域也是决策树的重要应用场景之一。
假设医生需要根据患者的症状来进行疾病诊断,我们可以利用决策树来构建一个疾病诊断的模型。
首先,我们收集患者的症状信息,比如发烧、咳嗽、头痛等。
然后,我们将这些症状作为特征,构建决策树模型。
通过对患者症状的分析,决策树可以帮助医生进行疾病的诊断,提高诊断的准确性。
案例三,产品营销。
在营销领域,决策树也被广泛应用于产品推荐和客户分类。
假设一家电商平台需要根据用户的购物行为来进行产品推荐,我们可以利用决策树来构建一个产品推荐的模型。
首先,我们收集用户的购物记录、浏览记录等信息。
然后,我们将这些信息作为特征,构建决策树模型。
通过对用户行为的分析,决策树可以帮助电商平台进行个性化推荐,提高用户的购物体验。
通过以上经典案例的介绍,我们可以看到决策树在不同领域的应用场景。
无论
是贷款申请、疾病诊断还是产品营销,决策树都能够帮助我们进行决策分析和预测,提高工作效率和决策准确性。
因此,掌握决策树算法是非常重要的,它不仅可以帮助我们解决实际问题,还可以提升我们在机器学习领域的竞争力。
希望通过本文的介绍,读者能够对决策树有更深入的理解,为实际问题的解决提供更多的思路和方法。