当前位置:文档之家› 数据挖掘课程报告

数据挖掘课程报告

数据挖掘课程报告
数据挖掘课程报告

数据挖掘课程报告

学习“数据挖掘”这门课程已经有一个学期了,在这十余周的学习过程中,我对数据挖掘这门技术有了一定的了解,明确了一些以前经常容易混淆的概念,并对其应用以及研究热点有了进一步的认识。以下主要谈一下我的心得体会,以及我对数据挖掘这项课题的见解。

随着数据库技术和计算机网络的迅速发展以及数据库管理系统的广泛应用,

人们积累的数据越来越多,而数据挖掘(Data Mining)就是在这样的背景下诞生的。

简单来说,数据挖掘就是从大量的数据中,抽取出潜在的、有价值的知识、模型或规则的过程。作为一类深层次的数据分析方法,它利用了数据库、人工智能和数理统计等多方面的技术。从某种角度上来说,数据挖掘可能并不适合进行科学研究,因为从本质上来说,数据挖掘这个技术是不能证明因果的,以一个最典型的例子来说,例如数据挖掘技术可以发现啤酒销量和尿布之间的关系,但是显然这两者之间紧密相关的关系可能在理论层面并没有多大的意义。不过,仅以此来否定数据挖掘的意义,显然就是对数据挖掘这项技术价值加大的抹杀,显然,数据挖掘这项技术从设计出现之初,就不是为了指导或支持理论研究的,它的重要意义在于,它在应用领域体现出了极大地优越性。

首先有一点是我们必须要明确的,即我们为什么需要数据挖掘这门技术?这也是在开课前一直困扰我的问题。数据是知识的源泉,然而大量的数据本身并不意味信息。尽管现代的数据库技术使我们很容易存储大量的数据,但现在还没有一种成熟的技术帮助我们分析、理解这些数据。数据的迅速增加与数据分析方法的滞后之间的矛盾越来越突出,人们希望在对已有的大量数据分析的基础上进行研究,但是目前所拥有的数据分析工具很难对数据进行深层次的处理,使得人们只能望“数”兴叹。数据挖掘正是为了解决传统分析方法的不足,并针对大规模数据的分析处理而出现的。数据挖掘可以帮助人们对大规模数据进行高效的分析处理,以节约时间,将更多的精力投入到更高层的研究中,从而提高科研工作的效率。

那么数据挖掘可以做些什么呢?数据挖掘的研究领域非常广泛,主要包括数据库系统、基于知识的系统、人工智能、机器学习、知识获取、统计学、空间数据库和数据可视化等领域。具体来说,它可以做这七件事情:分类,估计,预测,关联分析,聚类分析,描述和可视化,复杂数据类型挖掘。在本学期的学习过程中,我们对大部分内容进行了较为详细的研究,并且建立了一些基本的概念,对将来从事相关方向的研究奠定了基础。由于篇幅限制,就不对这些方法一一讲解了,这里只谈一下我在学习工程中的一些见解和心得。

在学习关联规则的时候,我们提到了一个关于“尿布与啤酒”的故事:在一

家超市里,尿布和啤酒被摆在一起出售,但是这个奇怪的举措却使尿布和啤酒的销量双双增加了。其实,这是由于这家超市对其顾客的购物行为进行购物篮分析,在这些原始交易数据的基础上,利用数据挖掘方法对这些数据进行分析和挖掘,从而意外的发现“跟尿布一起购买最多的商品竟是啤酒”。按我们的常规思维,尿布与啤酒本是两个毫无关联的商品,但是借助数据挖掘技术对大量交易数据进行挖掘分析后,却可以寻求到这一有价值的规律。我想,这个有趣的故事在一定程度上说明了数据挖掘技术的巨大价值。

而之前学习的决策树是一种树型结构的预测模型,其中树的非终端节点表示属性,叶节点表示所属的不同类别。根据训练数据集中数据的不同取值建立树的分支,形成决策树。决策树一般产生直观、易理解的规则,而且分类不需太多计算时间,适于对记录分类或结果的预测,尤其适用于当目标是生成易理解、可翻译成SQL或自然语言的规则时。决策树也可用于聚类、分类及序列模式,其应用的典型例子是CART(回归决策树)方法。

聚集是把整个数据库分成不同的群组。它的目的是要群与群之间差别很明显,而同一个群之间的数据尽量相似。此外聚类分析可以作为其它算法(如特征和分类等)的预处理步骤,这些算法再在生成的簇上进行处理。与分类不同,在开始聚集之前你不知道要把数据分成几组,也不知道怎么分(依照哪几个变量)。因此在聚集之后要有一个对业务很熟悉的人来解释这样分群的意义。很多情况下一次聚集你得到的分群对你的业务来说可能并不好,这时你需要删除或增加变量以影响分群的方式,经过几次反复之后才能最终得到一个理想的结果。

通过对数据挖掘的学习我也了解到遗传算法是一种基于生物进化理论的优化技术。其基本观点是“适者生存”原理,用于数据挖掘中则常把任务表示为一种搜索问题,利用遗传算法强大的搜索能力找到最优解。实际上遗传算法是模仿生物进化的过程,反复进行选择、交叉和突变等遗传操作,直至满足最优解。遗传算法可处理许多数据类型,同时可并行处理各种数据,常用于优化神经元网络,解决其他技术难以解决的问题,但需要的参数太多,对许多问题编码困难,一般计算量大。

还有一个比较重要的问题:数据挖掘过程包括哪些步骤?首先,要确定研究对象,这是数据挖掘的重要一步。挖掘的最后结果是不可预测的,但要探索的问

题应是很明确的,为了数据挖掘而数据挖掘则带有盲目性,是不会成功的。第二,数据准备阶段,这也是我们第一节课所讨论的问题。具体包括以下几个步骤:1)数据的选择,即搜索所有与业务对象有关的内部和外部数据信息,并从中选择出适用于数据挖掘应用的数据;2)数据的预处理,也就是研究数据的质量,为进一步的分析做准备,并确定将要进行的挖掘操作的类型;3)数据的转换,将数据转换成一个分析模型,这个分析模型是针对挖掘算法建立的,能否建立一个真正适合挖掘算法的分析模型是数据挖掘成功的关键。第三,数据挖掘阶段,即对经过预处理的数据进行挖掘。其中包括分类和预测,关联分析以及聚类分析的相关算法等等。第四,结果分析阶段,解释并对结果进行评估,通常会用到可视化技术。最后一个阶段,知识的同化,将分析所得到的知识集成到业务信息系统的组织结构中去,从而得到有价值的信息。以上便是对数据挖掘过程的简要描述,当然,在实际操作过程中可能会遇到各种各样的问题,这就需要我们熟练运用所学知识,在探索中逐一解决。

网络的发展为用户提供了多种新的信息服务,因特网以其丰富的内容、强大的功能以及简单的操作,在各种信息服务方式中脱颖而出,成为未来信息服务的主要方向。但当前因特网信息服务中更多的是单向、被动的服务模式,而网上用户信息需求的挖掘,可以改进因特网与用户的交互,使因特网与用户真正融为一体,不再是操作与被操作的关系。数据挖掘技术的应用,使因特网能根据用户的需求采取更主动、更有针对性的服务,并且可以建立一种个性化的信息服务系统,针对不同用户的信息需求,提供不同的信息服务。而个性化服务系统的建立,则依赖于用户信息需求的挖掘。

现代的商业社会中,充斥着大量的信息,如何从这些信息中迅速的定位并找到有价值的信息显然可以成为企业制胜的关键,毕竟在这个信息过载的世界里,基于多少信息所做出的决策会显著的影响决策的质量和科学性,而数据挖掘技术就使这种归纳决策得到了实现。数据挖掘可以从企业数据仓库中定位有价值的、但是并未事先被企业员工或者高层管理者知道的信息,并对这些信息进行一些基本的分析(例如聚类、回归等)。从目前的应用来看,将数据挖掘技术应用在营销或企业决策方面,管理者遵循的逻辑是“消费者过去的行为会极大的影响甚至决定未来所做出的选择”,而过往真实的数据显然就是对消费者行为最真实的记

录,从中挖掘出的规律对于企业决策自然是至关重要的。一项好的技术并不一定要面面俱到,就像数据挖掘一样,目前来说,这项技术在理论研究中应用可能并不合适,但是用于实际决策或者企业营销的过程中,显然可以令过往数据完备的企业获益匪浅。

在本学期即将结束的时候,按照要求每人准备一篇关于数据挖掘的论文,在深入研究的基础上,将对这门课的认识和理解写出来。通过这门课,让我对数据挖掘的具体应用有了进一步的了解,同时也感到自己对某些方法的研究还不是十分透彻。在今后的学习中,相信还会涉及数据挖掘的相关知识,所以还需进一步学习和研究。

总之,数据挖掘技术是一个发展十分迅速的领域,随着数据挖掘技术在各领域日益广泛的应用,越来越多的人会投入到相关的研究中来。就我个人而言,我也会继续关注数据挖掘技术的最新研究进展,希望能对我将来的学习与工作有所帮助。

数据挖掘与分析心得体会

正如柏拉图所说:需要是发明之母。随着信息时代的步伐不断迈进,大量数据日积月累。我们迫切需要一种工具来满足从数据中发现知识的需求!而数据挖掘便应运而生了。正如书中所说:数据挖掘已经并且将继续在我们从数据时代大步跨入信息时代的历程中做出贡献。 1、数据挖掘 数据挖掘应当更正确的命名为:“从数据中挖掘知识”,不过后者显得过长了些。而“挖掘”一词确是生动形象的!人们把数据挖掘视为“数据中的知识发现(KDD)”的同义词,而另一些人只是把数据挖掘视为知识发现过程的一个基本步骤! 由此而产生数据挖掘的定义:从大量数据中挖掘有趣模式和知识的过程!数据源包括数据库、数据仓库、Web、其他信息存储库或动态地流入系统的数据。作为知识发现过程,它通常包括数据清理、数据集成、数据变换、模式发现、模式评估和知识表示六个步骤。 数据挖掘处理数据之多,挖掘模式之有趣,使用技术之大量,应用范围之广泛都将会是前所未有的;而数据挖掘任务之重也一直并存。这些问题将继续激励数据挖掘的进一步研究与改进! 2、数据分析 数据分析是指用适当的统计方法对收集来的大量第一手资料和第二手资料进行分析,以求最大化地开发数据资料的功能,发挥数据的作用。是为了提取有用信息和形成结论而对数据加以详细研究和概括总结的过程。 数据分析有极广泛的应用范围。典型的数据分析可能包含以下三个步: 1、探索性数据分析:当数据刚取得时,可能杂乱无章,看不出规律,通过作图、造表、用各种形式的方程拟合,计算某些特征量等手段探索规律性的可能形式,即往什么方向和用何种方式去寻找和揭示隐含在数据中的规律性。 2、模型选定分析,在探索性分析的基础上提出一类或几类可能的模型,然后通过进一步的分析从中挑选一定的模型。 3、推断分析:通常使用数理统计方法对所定模型或估计的可靠程度和精确程度作出推断。 数据分析的目的是把隐没在一大批看来杂乱无章的数据中的信息集中、萃取和提炼出来,以找出所研究对象的内在规律。在实用中,数据分析可帮助人们作出判断,以便采取适当行动。数据分析是组织有目的地收集数据、分析数据,使之成为信息的过程。这一过程是质量管理体系的支持过程。在产品的整个寿命周期,包括从市场调研到售后服务和最终处置的各

数据挖掘课程论文

廊坊师范学院 《数据挖掘》课程论文 题目:国内游客总人数的时间序列分析学生姓名:xxx 任课老师:曹慧荣 院别:数学与信息科学学院 系别:信息与计算科学系 专业:信息与计算科学 年级:2011级本科1班 学号:xxxxxxx 完成日期2014年6月18日

数据挖掘本科生课程论文 论文题目:国内游客总人数的时间序列分析 摘要:研究的问题:通过对国内游客总人数的变化研究,研究各年人数的变化规律,挖掘有价值的信息.研究的方法:时间序列分析与预测,建立霍特双参数指数平滑模型,对历年的旅游总人数进行分析.得到的结论:旅游人数逐年上升,中国旅游业的前景非常的可观,中国旅游产业发展到一个新阶段,同时也从侧面反映了人们的物质生活条件的提高. 关键词:旅游总人数;时间序列;预测;霍特双参数指数平滑模型.

Title:Time Series Analysis of the Domestic Total Number of Visitors Abstract:Research: Through the study of changes in the total number of domestic tourists, the number of studies each variation, the excavation of valuable information. Methods: Time series analysis and forecasting, establish Holt two-parameter exponential smoothing model, the total number of tourists over the years analyzed. The conclusion: the number of tourists increased year by year, the prospects of China's tourism industry is very impressive, China's tourism industry to a new stage, but also from the reflection of the improvement of people's material living conditions. Keywords:The total number of tourist;Time series;Forecast;Holt two-parameter model.

【最新】python数据分析课程报告论文(附代码数据)

用python进行数据分析 一、样本集 本样本集来源于某高中某班78位同学的一次月考的语文成绩。因为每位同学的成绩都是独立的随机变量,遂可以保证得到的观测值也是独立且随机的 样本如下: grades=[131,131,127,123,126,129,116,114,115,116,123,122,118, 121,126,121,126,121,111,119,124,124,121,116,114,116, 116,118,112,109,114,116,116,118,112,109,114,110,114, 110,113,117,113,121,105,127,110,105,111,112,104,103, 130,102,118,101,112,109,107,94,107,106,105,101,85,95, 97,99,83,87,82,79,99,90,78,86,75,66]; 二、数据分析 1.中心位置(均值、中位数、众数) 数据的中心位置是我们最容易想到的数据特征。借由中心位置,我们可以知道数据的一个平均情况,如果要对新数据进行预测,那么平均情况是非常直观地选择。数据的中心位置可分为均值(Mean),中位数(Median),众数(Mode)。其中均值和中位数用于定量的数据,众数用于定性的数据。 均值:利用python编写求平均值的函数很容易得到本次样本的平均值 得到本次样本均值为109.9 中位数:113 众数:116 2.频数分析 2.1频数分布直方图 柱状图是以柱的高度来指代某种类型的频数,使用Matplotlib对成绩这一定性变量绘制柱状图的代码如下:

数据挖掘与数据仓库知识点总结

1、数据仓库定义:数据仓库是一种新的数据处理体系结构,它与组织机构的操作数据库分别维护,允许将各种应用系统一起,为统一的历史数据分析提供坚实的平台,对信息处理提供支持。数据仓库是面向主题的、集成的、相对稳定的、反映历史变化的数据集合,为企业决策支持系统提供所需的集成信息。设计和构造步骤:1)选取待建模的商务处理;2)选取商务处理的粒变;3)选取用于每个事实表记录的维;4)选取事实表中每条记录的变量 系统结构:(1)底层是仓库数据服务器,总是关系数据库系统。(2)中间层是OLAP服务器,有ROLAP 和MOLAP,它将对多维数据的操作映射为标准的关系操作(3)顶层是前端客户端,它包括查询和报表工具、分析工具和数据挖掘工具 2、数据仓库的多维数据模型:(1)星形模式:在此模型下,数据仓库包括一个大的包含大批数据并且不含冗余的中心表,一组小的附属表,维表围绕中心事实表显示的射线上。特征:星型模型四周的实体是维度实体,其作用是限制和过滤用户的查询结果,缩小访问围。每个维表都有自己的属性,维表和事实表通过关键字相关联。【例子:sales数据仓库的星形模式,此模式包含一个中心事实表sales,它包含四个维time, item, branch和location。 (2)雪花型模式:它是星形模式的变种,其中某些维表是规化的,因而把数据进一步分解到附加的表中。特征:雪花模型通过最大限度地减少数据存储量和联合较小的维表来改善查询性能,增加了用户必须处理的表数量和某些查询的复杂性,但同时提高了处理的灵活性,可以回答更多的商业问题,特别适合系统的逐步建设要求。【例子同上,只不过把其中的某些维给扩展了。 (3)事实星座形:复杂的应用可能需要多个事实表共享维表,这种模式可看作星形模式的汇集。 特征:事实星座模型能对多个相关的主题建模。例子:有两个事实表sales和shipping,它们可以共享维表time, item和location。 3、OLAP:即联机分析处理,是在OLTP基础上发展起来的、以数据仓库基础上的、面向高层管理人员和专业分析人员、为企业决策支持服务。特点:1.实时性要求不是很高。2.数据量大。3.因为重点在于决策支持,所以查询一般是动态的,也就是说允许用户随机提出查询要求。 OLAP操作:上卷:通过沿一个维的概念分层向上攀登,或者通过维归约,对数据立方体进行类聚。下钻:是上卷的逆操作,它由不太详细的数据得到更详细的数据,下钻可以通过沿维的概念分层向下或引入附加的维来实现。切片:对给定方体的一个维进行进行选择,导致一个子立方体。切块:通过对两个或多个维执行选择,定义子立方体。转轴:是一种可视化操作,它转动数据的视角,提供数据的替代表示。 OLTP:即联机事务处理,是以传统数据库为基础、面向操作人员和低层管理人员、对基本数据进行查询和增、删、改等的日常事务处理。OLTP的特点有:a.实时性要求高;b.数据量不是很大。C.交易一般是确定的,是对确定性数据进行存取。d.并发性要求高且严格的要求事务的完整性,安全性。 OLTP和OLAP的区别:1)用户和系统的面向性:OLTP面向顾客,而OLAP面向市场;2)数据容:OLTP 系统管理当前数据,而OLAP管理历史的数据;3)数据库设计:OLTP系统采用实体-联系(ER)模型和面向应用的数据库设计,而OLAP系统通常采用星形和雪花模型;4)视图:OLTP系统主要关注一个企业或部门部的当前数据,而OLAP 系统主要关注汇总的统一的数据;5)访问模式:OLTP访问主要有短的原子事务组成,而OLAP系统的访问大部分是只读操作,尽管许多可能是复杂的查询。 7、PageRank算法原理:1)在初始阶段:构建Web图,每个页面初始设置相同的PageRank 值,通过迭代计算,会得到每个页面所获得的最终PageRank值。2)在一轮中更新页面 PageRank得分的计算方法:每个页面将其当前的PageRank值平均分配到本页面包含的出 链上。每个页面将所有指向本页面的入链所传入的权值求和,即可得到新的PageRank得分。 优点:是一个与查询无关的静态算法,所有网页的PageRank值通过离线计算获得;有效减 少在线查询时的计算量,极大降低了查询响应时间。 缺点:1)人们的查询具有主题特征,PageRank忽略了主题相关性,导致结果的相关性和主 题性降低。2)旧的页面等级会比新页面高。因为即使是非常好的新页面也不会有很多上游, 除非它是某个站点的子站点。

数据挖掘论文

数据挖掘课程论文 ——————数据挖掘技术及其应用的实现 数据挖掘技术及其应用的实现 摘要:随着网络、数据库技术的迅速发展以及数据库管理系统的广泛应用,人们积累的数据越来越多。数据挖掘(Data Mining)就是从大量的实际应用数据中提取隐含信息和知识,它利用了数据库、人工智能和数理统计等多方面的技术,是一类深层次的数据分析方法。本文介绍了数据库技术的现状、效据挖掘的方法以及它在Bayesian网建网技术中的应用:通过散据挖掘解决Bayesian网络建模过程中所遇到的具体问题,即如何从太规模效据库中寻找各变量之间的关系以及如何确定条件概率问题。 关键字:数据挖掘、知识获取、数据库、函数依赖、条件概率 一、引言: 数据是知识的源泉。但是,拥有大量的数据与拥有许多有用的知识完全是两回事。过去几年中,从数据库中发现知识这一领域发展的很快。广阔的市场和研究利益促使这一领域的飞速发展。计算机技术和数据收集技术的进步使人们可以从更加广泛的范围和几年前不可想象的速度收集和存储信息。收集数据是为了得到信息,然而大量的数据本身并不意味信息。尽管现代的数据库技术使我们很容易存储大量的数据流,但现在还没有一种成熟的技术帮助我们分析、理解并使数据以可理解的信息表示出来。在过去,我们常用的知识获取方法是由知识工程师把专家经验知识经过分析、筛选、比较、综合、再提取出知识和规则。然而,由于知识工程师所拥有知识的有局限性,所以对于获得知识的可信度就应该打个 折扣。目前,传统的知识获取技术面对巨型数据仓库无能为力,数据挖掘技术就应运而生。 数据的迅速增加与数据分析方法的滞后之间的矛盾越来越突出,人们希望在对已有的大量数据分析的基础上进行科学研究、商业决策或者企业管理,但是目前所拥有的数据分析工具很难对数据进行深层次的处理,使得人们只能望“数”兴叹。数据挖掘正是为了解决传统分析方法的不足,并针对大规模数据的分析处理而出现的。数据挖掘通过在大量数据的基础上对各种学习算法的训练,得到数据对象间的关系模式,这些模式反映了数据的内在特性,是对数据包含信息的更高层次的抽象[1]。目前,在需要处理大数据量的科研领域中,数据挖掘受到越来越多的关注,同时,在实际问题中,大量成功运用数据挖掘的实例说明了数据挖掘对科学研究具有很大的促进作用。数据挖掘可以帮助人们对大规模数据进行高效的分

数据挖掘课程体会

数据挖掘课程体会 学习数据挖掘这门课程已经有一个学期了,在这十余周的学习过程中,我对数据挖掘这门课程的一些技术有了一定的了解,并明确了一些容易混淆的概念,以下主要谈一下我的心得体会。 近年来,数据挖掘引起了信息产业界的极大关注,其主要原因是存在大量数据,可以广泛使用,并且迫切需要将这些数据转换成有用的信息和知识。数据挖掘就是从大量的数据中,抽取出潜在的、有价值的知识、模型或规则的过程。作为一类深层次的数据分析方法,它利用了数据库、人工智能和数理统计等多方面的技术。 要将庞大的数据转换成为有用的信息,必须先有效率地收集信息。随着科技的进步,功能完善的数据库系统就成了最好的收集数据的工具。数据仓库,简单地说,就是搜集来自其它系统的有用数据,存放在一整合的储存区内。所以其实就是一个经过处理整合,且容量特别大的关系型数据库,用以储存决策支持系统所需的数据,供决策支持或数据分析使用。 数据挖掘的研究领域非常广泛,主要包括数据库系统、基于知识的系统、人工智能、机器学习、知识获取、统计学、空间数据库和数据可视化等领域。主要是可以做以下几件事:分类、估计、预测、关联分析、聚类分析、描述和可视化、复杂数据类型挖掘。在这里就不一一介绍了。 在学习关联规则的时候,提出了一个关于啤酒与纸尿布的故事:在一家超市里,纸尿布与啤酒被摆在一起出售,但是这个奇怪的举措却使得啤酒和纸尿布的销量双双增加了。其实,这是由于这家超市对其顾客的购物行为进行购物篮分析,在这些原始交易数据的基础上,利用数据挖掘方法对这些数据进行分析和挖掘。从而意外的发现跟纸尿布一起购买最多的商品竟是啤酒。按我们的常规思维,啤酒与纸尿布是两个毫无关联的商品,但是借助数据挖掘技术对大量交易数据进行挖掘分析后,却可以寻求到这一有价值的规律。这个故事在一定程度上说明了数据挖掘技术的巨大价值。 总之,非常感谢周教员在这十余周的精彩授课,让我受益匪浅,我会继续学习这门课程,努力为今后的课题研究或论文打好基础。

数据挖掘报告

哈尔滨工业大学 数据挖掘理论与算法实验报告(2016年度秋季学期) 课程编码S1300019C 授课教师邹兆年 学生姓名汪瑞 学号 16S003011 学院计算机学院

一、实验内容 决策树算法是一种有监督学习的分类算法;kmeans是一种无监督的聚类算法。 本次实验实现了以上两种算法。在决策树算法中采用了不同的样本划分方式、不同的分支属性的选择标准。在kmeans算法中,比较了不同初始质心产生的差异。 本实验主要使用python语言实现,使用了sklearn包作为实验工具。 二、实验设计 1.决策树算法 1.1读取数据集 本次实验主要使用的数据集是汽车价值数据。有6个属性,命名和属性值分别如下: buying: vhigh, high, med, low. maint: vhigh, high, med, low. doors: 2, 3, 4, 5more. persons: 2, 4, more. lug_boot: small, med, big. safety: low, med, high. 分类属性是汽车价值,共4类,如下: class values:unacc, acc, good, vgood 该数据集不存在空缺值。

由于sklearn.tree只能使用数值数据,因此需要对数据进行预处理,将所有标签类属性值转换为整形。 1.2数据集划分 数据集预处理完毕后,对该数据进行数据集划分。数据集划分方法有hold-out法、k-fold交叉验证法以及有放回抽样法(boottrap)。 Hold—out法在pthon中的实现是使用如下语句: 其中,cv是sklearn中cross_validation包,train_test_split 方法的参数分别是数据集、数据集大小、测试集所占比、随机生成方法的可

数据挖掘课程实验最终报告

数据挖掘课程实验最终报告 王丹 杨亮 朱鹏飞 文本分类和主题提取 实验内容简介: 文本分为10个类别,每个类别有200篇文章,每篇文章大概3000字,属于长文本分类,对于每个类别,提取其中的主题内容。 一、预处理阶段 首先需要对文本进行预处理, 1)去掉不相关的header,footer以及其他注释信息 2)去除文本分行标志的“\r\n”,合并为一个段落 3)将处理好的文件放到新的目录下,目录结构和之前的结构相同。 二分词 对上一步进行预处理的文本进行分词,分词后放到新的目录下,目录结构仍然保持和之前的目录结构一致。 三对预处理的文本进行打包 本次步骤主要是实现一个训练用语料数据结构,为做计算tf-idf向量空间模型做准备 1首先定义训练集的数据结构 定义训练集对象:data_set 使用python的bunch类提供一种key,value的对象形式 Target_name:所有分类集名称列表 Label:每个语篇定义分类标签列表

Filenames:分词后语篇路径 Contents:分词后语篇内容 2 从分词语料库中将所需信息读入训练集的数据结构中 3 将训练集持久化为一个数据对象文件 4 读出数据对象文件,验证持久化的正确性。 四对打包后的数据计算tf-idf权重,并持久化词包文件 1 导入训练集 2 从文件导入停用词表,并转换为list 3 创建词袋数据结构,并配置停用词表 4 统计每个词语的tf-idf权值。 使用Tdidfvectorizer计算tf-idf权值。 五对测试集进行分类 1 确定测试语料:对测试语料进行预处理 2 对测试语料进行分词 3 导入测试语料:随机选取测试语料类别并记录 4 导入训练词袋模型含vocabulary 5 计算测试语料的tf-idf权值,让两个tfidfvectorizer共享一个vocabulary 6 应用分类算法 7 预测和输出分类结果 8 计算分类精度 KNN算法分类 KNN算法原理:通过训练好模型,当有新的文章来时,统计它周围k个类别的文章的类型,距离采用的是计算tf-idf矩阵间的距离,由于每篇文章是平等的,由于每类文章的数量基本

大数据处理技术的总结与分析

数据分析处理需求分类 1 事务型处理 在我们实际生活中,事务型数据处理需求非常常见,例如:淘宝网站交易系统、12306网站火车票交易系统、超市POS系统等都属于事务型数据处理系统。这类系统数据处理特点包括以下几点: 一就是事务处理型操作都就是细粒度操作,每次事务处理涉及数据量都很小。 二就是计算相对简单,一般只有少数几步操作组成,比如修改某行得某列; 三就是事务型处理操作涉及数据得增、删、改、查,对事务完整性与数据一致性要求非常高。 四就是事务性操作都就是实时交互式操作,至少能在几秒内执行完成; 五就是基于以上特点,索引就是支撑事务型处理一个非常重要得技术. 在数据量与并发交易量不大情况下,一般依托单机版关系型数据库,例如ORACLE、MYSQL、SQLSERVER,再加数据复制(DataGurad、RMAN、MySQL数据复制等)等高可用措施即可满足业务需求。 在数据量与并发交易量增加情况下,一般可以采用ORALCERAC集群方式或者就是通过硬件升级(采用小型机、大型机等,如银行系统、运营商计费系统、证卷系统)来支撑. 事务型操作在淘宝、12306等互联网企业中,由于数据量大、访问并发量高,必然采用分布式技术来应对,这样就带来了分布式事务处理问题,而分布式事务处理很难做到高效,因此一般采用根据业务应用特点来开发专用得系统来解决本问题。

2数据统计分析 数据统计主要就是被各类企业通过分析自己得销售记录等企业日常得运营数据,以辅助企业管理层来进行运营决策。典型得使用场景有:周报表、月报表等固定时间提供给领导得各类统计报表;市场营销部门,通过各种维度组合进行统计分析,以制定相应得营销策略等. 数据统计分析特点包括以下几点: 一就是数据统计一般涉及大量数据得聚合运算,每次统计涉及数据量会比较大。二就是数据统计分析计算相对复杂,例如会涉及大量goupby、子查询、嵌套查询、窗口函数、聚合函数、排序等;有些复杂统计可能需要编写SQL脚本才能实现. 三就是数据统计分析实时性相对没有事务型操作要求高。但除固定报表外,目前越来越多得用户希望能做做到交互式实时统计; 传统得数据统计分析主要采用基于MPP并行数据库得数据仓库技术.主要采用维度模型,通过预计算等方法,把数据整理成适合统计分析得结构来实现高性能得数据统计分析,以支持可以通过下钻与上卷操作,实现各种维度组合以及各种粒度得统计分析。 另外目前在数据统计分析领域,为了满足交互式统计分析需求,基于内存计算得数据库仓库系统也成为一个发展趋势,例如SAP得HANA平台。 3 数据挖掘 数据挖掘主要就是根据商业目标,采用数据挖掘算法自动从海量数据中发现隐含在海量数据中得规律与知识。

数据挖掘课程论文综述

海南大学 数据挖掘论文 题目:股票交易日线数据挖掘 学号:20100602310002 姓名: 专业:10信管 指导老师: 分数:

目录 目录 (2) 1. 数据挖掘目的 (3) 2.相关基础知识 (3) 2.1 股票基础知识 (3) 2.2 数据挖掘基础知识 (4) 2.2.2数据挖掘的任务 (5) 3.数据挖掘方案 (6) 3.1. 数据挖掘软件简介 (6) 3.2. 股票数据选择 (7) 3.3. 待验证的股票规律 (7) 4. 数据挖掘流 (8) 4.1数据挖掘流图 (8) 4.2规律验证 (9) 4.2.2规律2验证 (10) 4.2.3规律三验证 (12) 4.3主要节点说明 (14) 5.小结 (15)

1.数据挖掘目的 数据挖掘的目的就是得出隐藏在数据中的有价值的信息,发现数据之间的内在联系与规律。对于本次数据挖掘来说,其目的就是学会用clementine对股票的历史数据进行挖掘,通过数据的分析,找出存在股票历史数据中的规律,或者验证已存在的股票规律。同时也加深自己对股票知识的了解和对clementine软件的应用能力。为人们决策提供指导性信息,为公司找出其中的客户为公司带来利润的规律,如二八原则、啤酒与尿布的现象等。 2.相关基础知识 2.1 股票基础知识 2.1.1 股票 是一种有价证券,是股份公司在筹集资本时向出资人公开或私下发行的、用以证明出资人的股本身份和权利,并根据持有人所持有的股份数享有权益和承担义务的凭证。股票代表着其持有人(股东)对股份公司的所有权,每一股同类型股票所代表的公司所有权是相等的,即“同股同权”。股票可以公开上市,也可以不上市。在股票市场上,股票也是投资和投机的对象。对股票的某些投机炒作行为,例如无货沽空,可以造成金融市场的动荡。 2.1.2 开盘价 开盘价又称开市价,是指某种证券在证券交易所每个交易日开市后的第一笔买卖成交价格。世界上大多数证券交易所都采用成交额最大原则来确定开盘价。 2.1.3 收盘价 收盘价是指某种证券在证券交易所一天交易活动结束前最后一笔交易的成交价格。如当日没有成交,则采用最近一次的成交价格作为收盘价,因为收盘价是当日行情的标准,又是下一个交易日开盘价的依据,可据以预测未来证券市场行情;所以投资者对行情分析时,一般采用收盘价作为计算依据。

《数据分析与数据挖掘实训》课程论文模板

《数据分析与数据挖掘实训》课程论文模板 班级:学号:姓名:开课学院:理学院考试形式:开卷任课教师:

小论文题目黑体小二居中 张三信计091 摘要 “摘要”用黑体小三号,居中。"摘要"设置段前为8行,段后为1行。摘要的字数要求150字,用宋体五号。"关键词"用黑体(Times New Roman粗体)小五号,内容用宋体五号或小四号(Times New Roman体),包含3至5个字或词组,中间用逗号分隔,结束时不用标点符号。关键词与摘要相距1行。 关键词计算机,信计,经信 1一级标题,用黑体小二号 正文中所有非汉字均用Times New Roman体。1、字间距 设置为"标准",段落设置为"单倍行距"。2、段落采用三级标题, 用阿拉伯数字连续编号,例如1,1.1,1.1.1。每一段落的标题为一

级标题,用黑体小二号。段前距为0行,与紧接其后的文字或二 级标题间距为1行。 2 第二个一级标题,用黑体小二号 2.1二级标题用宋体四号 二级标题用宋体四号,左对齐,段前距1行,段后距0行。 2.1.1三级标题用黑体小四号 三级标题用黑体小四号,左对齐,段前距1行,段后距0行。正文用宋体五号或小4号。 4、表名位于表的正上方,用宋体小五号粗体;图名位于图的正下方,用宋体小五号粗体;图表按图1或表1编号。 表1-1 学生成绩 学号姓名年龄成绩图名位于图的正下方,用宋体小五号粗体;图表按图1或表1编号。 图1-1 瑞星卡卡 5、数学公式用斜体,注明编号。

sina+sinb=sinc (1-1) csina+csinb=sinc (1-2) 6、页眉从正文开始。页眉左端顶格为该篇文章的标题,右端右对齐为页码,用阿拉伯数字。参考文献用黑体小二号,左缩进为0,段前设置为0行,段后设置为1行,著录的内容应符合国家标准。 主要格式如下: 期刊:[序号]作者(用逗号分隔).题名.刊名,出版年,卷号:(期号),起始页码~终止页码 书籍:[序号]作者(用逗号分隔).书名.版本号(初版不写).出版地:出版者,出版年 论文集:[序号]作者(用逗号分隔).题名.见(英文用In):主编.论文集名. 出版地:出版者,出版年,起始页码-终止页码 学位论文:[序号]作者.题名[博士(硕士/学士)学位论文].保存地:保存单位,授予年 参考文献 [1] 张三,李四.计算机在初级会计电算化中的应用, 计算机研究进 展,2009,34(3):12-20 [2] 王珊,萨世轩.数据库原理及应用.第四版.北京.高等教育出版 社.2004 [3] 万明,李恪.数据挖掘在上海世博会中的应用.华东理工大学.高性 能计算国际会议.上海.高等教育出版社,2011,10-23

数据挖掘及商务智能总结

第一章绪论 什么是数据挖掘,什么是商业智能 从大型数据库中提取有趣的(非平凡的、蕴涵的、先前未知的且是潜在有用的)信息或模式。 商业智能是要在必须的时间段内,把正确有用的信息传递给适当的决策者,以便为有效决策提供信息支持。 分类算法的评价标准 召回率recall =系统检索到的相关文件数/相关文件总数 准确率precision(查准率)= 系统检索到的相关文件数/系统返回的文件总数第二章数据仓库 什么是数据仓库 是运用新信息科技所提供的大量数据存储、分析能力,将以往无法深入整理分析的客户数据建立成为一个强大的顾客关系管理系统,以协助企业制定精准的运营决策。 数据仓库的基本特征 1面向主题2整合性 3长期性 4稳定性 第三章数据挖掘简介 数据挖掘的一般功能 1分类2估计3 预测4关联分类5聚类 数据挖掘的完整步骤 1理解数据与数据所代表的含义 2获取相关知识与技术 3整合与检查数据 4取出错误或不一致的数据 5建模与假设 6数据挖掘运行 7测试与验证所挖掘的数据 8解释与使用数据 数据挖掘建模的标准 CRISP-CM 跨行业数据挖掘的标准化过程 第四章数据挖掘中的主要方法 基于SQL Server 2005 SSAS的十种数据挖掘算法是什么 1.决策树 2.聚类 3.Bayes分类 4.有序规则 5. 关联规则 6.神经网络 7.线性回归 8. Logistic回归 9. 时间序列10. 文本挖掘 第五章数据挖掘与相关领域的关系 数据挖掘与机器学习、统计分析之间的区别与联系(再看看书整理下) 32页 处理大量实际数据更具优势,并且使用数据挖掘工具无需具备专业的统计学背景。 数据分析的需求和趋势已经被许多大型数据库所实现,并且可以进行企业级别的数据挖掘应用。 相对于重视理论和方法的统计学而言,数据挖掘更强调应用,毕竟数据挖掘目的

数据挖掘课程论文要求

吉JISHOU UNIVERSITY 课 程 论 文 课程名称 小二号楷GB2312不加粗 题 目 小二号楷GB2312不加粗 作 者 所属学院 专业年级 信息管理与信息系统2008级 写作时间 吉首大学教务处制

目 录 (1) Abstract (1) 引言 (2) 一、应收帐款具有“双刃性” (2) (一)有利方面 (2) (二)不利方面 (3) 二、我国应收帐款管理制度及缺陷 (3) (一)相关制度 (3) (二)制度缺陷 (3) 三、加强应收帐款管理的措施 (4) (一)制定适当的信用政策 (4) (二)提取坏帐准备金,减少坏帐损失 (4) (三)慎选结算方式,推行票据结算制度 (5) (四)对应收帐款设定担保,办理信用保险 (5) (五)制定合理的收款政策,催收帐款责任到位 (5) (六)根据帐龄情况采取必要措施 (5) 四、系统分析,为应收帐款科学管理提供思路 (5) 结语 (13) 参考文献 (13) (用3号黑体字,中间空2字符) (用小4号宋体字,1.5倍行距,下同)

学生姓名 (吉首大学 ***学院,湖南 张家界 摘要:(←用小4号黑体字)应收帐款的存在是买方市场下企业为占有市场而必然出现的结果。它既可扩大市场,提高市场占有率,又给企业带来潜在的坏帐风险,具有“双刃性”。企业应充分认识应收帐款的利弊,从应收帐款的周转情况、帐龄、规模及对收入和利润的弹性等方面系统分析,从信用政策、坏帐准备、及时催收、根据帐龄区别对待等方面加强管理,由此降低和控制应收帐款的风险。(←用5号宋体字,中文摘要应简洁明了,字数为300字左右,内容包括论文的写作目的、意义、研究方法、研究过程、主体内容及结论,突出创造性成果及新见解) 关键词:(←用小4号黑体字)应收帐款;管理;分析(←用5号宋体字,关键词为能反映论文最主要内容的名词性术语,数量3 The Management and the Analysis of the Account Receivable (↑用3号Times New Noman ,加粗,居中) (如果有副标题,用小3号Times New Noman ,居中) (作者姓名,用4号Times New Noman ,居中) (School of ****,Jishou University Zhangjiajie,Hunan 427000) (单位,用小4号 Abstract : (←用小4号Times New Noman ,加粗,首个字母大写)The existence of the account receivable is a result to occupy market in the buyer ’s market. The account receivable not only expands the occupation rate of market but also brings the potential bad account risk. It is “a pair of edge nature ”. Enterprises should study the pros and cons of the account receivable and analyze turnover situation and scale of the account receivable age of the debt and elasticity to the income and profit of the account receivable. And enterprises should strengthen management to lower and to control the (用4号宋体字)

数据挖掘r语言总结报告

总结报告 课程名称:数据挖掘R语言 任课教师: 姓名: 专业:计算机科学与技术 班级: 学号:

计算机科学与技术学院 2018 年 6 月19 日 一、数据预处理 针对不同分析目标,选择合适的字段,并将字段值处理成适于分析的形式。必要时还需对原数据集进行统计变换后形成易于分析的形式。 为每条数据添加字段:所属地区。根据下图中划分的美国四大地区,将每条数据中表示的案件发生地在该字段上划分为东北部、中西部、南部和西部四个值。 首先导入数据: gundata<-read.csv("d:/gun.csv",sep = ",",stringsAsFactors = FALSE,header = TRUE,quote=””) 然后将需要的字段取出来,在这里取出了一下几个字段:

gundata[,c("incident_id","date","state","city_or_county","n_killed","n_injured"," congressional_district","latitude","longitude","state_house_district","state_sen ate_district")] gd <- subset(gundata,select=c(incident_id,date,state,city_or_county,n_killed, n_injured,congressional_district,latitude,longitude,state_house_district,state_s enate_district)) 然后根据州字段将所有数据划分为四个地区 阿拉巴马州Alabama 阿拉斯加州Alaska 亚利桑那州Arizona 阿肯色州Arkansas 加利福尼亚州California 科罗拉多州Colorado 哥伦比亚特区Columbia 康涅狄格州Connecticut 特拉华州Delaware 佛罗里达州Florida 佐治亚州Georgia 夏威夷州Hawaii 爱达荷州Idaho 伊利诺州Illinois

《数据挖掘》结课报告

《数据挖掘》结课报告 --基于k-最近邻分类方法的连衣裙属性数据集的研究报告 (2013--2014 学年第二学期) 学院: 专业: 班级: 学号: 姓名: 指导教师: 二〇一四年五月二十四日

一、研究目的与意义 (介绍所选数据反应的主题思想及其研究目的与意义) 1、目的 (1)熟悉weka软件环境; (2)掌握数据挖掘分类模型学习方法中的k-最近邻分类方法; (3)在weka中以“Dress Attribute DataSet”为例,掌握k-最近邻分类算法的相关方法; (4)取不同的K值,采用不同的预测方法,观察结果,达到是否推荐某款连衣裙的目的,为企业未来的规划发展做出依据。 2、意义 此数据集共有14个属性,500个实例,包含了连衣裙的各种属性和根据销售量的不同而出现的推荐情况,按照分类模型学习方法中的k-最近邻分类方法依据各属性推断应推广哪些种类的裙子,对发展市场的扩大及企业的发展战略具有重要意义。 二、技术支持 (介绍用来进行数据挖掘、数据分析的方法及原理) 1、原理:k-最近邻分类算法是一种基于实例的学习方法,不需要事先对训练数据建立分类模型,而是当需要分类未知样本时才使用具体的训练样本进行预测,通过在训练集中找出测试集的K个最近邻,来预测估计测试集的类标号; 2、方法:k-最近邻方法是消极学习方法的典型代表,其算法的关键技术是搜索模式空间,该方法首先找出最近邻即与测试样本相对

接近的所有训练样本,然后使用这些最近邻的类标号来确定测试样本的类标号。 三、数据处理及操作过程 (一)数据预处理方法 1、“remove”属性列:数据集中属性“Dress_ID”对此实验来说为无意义的属性,因此在“Attributes”选项中勾选属性“Dress_ID”并单击“remove”,将该属性列去除,并保存新的数据集; 2、离散化预处理:需要对数值型的属性进行离散化,该数据集中只有第3个属性“rating”和第13个属性“recommendation”为数值型,因此只对这两个属性离散化。 “recommendation”属性只有2个取值:0,1,因此用文本编辑器“Ultra Edit”或者写字板打开数据集并直接修改“Dress Attribute Data Set.arff”文件,把“@attribute recommendation numeric”改为“@attribute recommendation {0,1,}”,并保存;在“Explorer”中重新打开“Dress Attribute Data Set.arff”,选中“recommendation”属性后,右方的属性摘要中“Type”值变为“Nominal”。 在过滤器Filter中单击“choose”,出现树形图,单击“weka”--“Filters”--“unsupervised”--“attribute”--“discretize”,点击“Choose”右边的文本框进行参数设置,把“attribute Indices”右边改成“3”,计划将该属性分成3段,于是把“bins”改成“3”,其它参数不更改,点“OK”回到“Explorer”,单击“Apply”离散化后的数据如下所示:

总结报告-数据挖掘技术论文开题报告 精品

数据挖掘技术论文开题报告 毕业都是需要进行论文的写作,数据挖掘技术论文的开题报告怎么写?下面是数据挖 掘技术论文开题报告,欢迎阅读! 数据挖掘技术综述 数据挖掘(Data Mining)是一项较新的数据库技术,它基于由日常积累的大量数据所 构成的数据库,从中发现潜在的、有价值的信息——称为知识,用于支持决策。数据 挖掘是一项数据库应用技术,本文首先对数据挖掘进行概述,阐明什么是数据挖掘, 数据挖掘的技术是什么,然后介绍数据挖掘的常用技术,数据挖掘的主要过程, 如何 进行数据挖掘,主要应用领域以及国内外现状分析。 一. 研究背景及意义 近十几年来,随着数据库系统的广泛流行以及计算机技术的快速发展,人们利用信息 技术生产和搜集数据的能力大幅度提高。千万个数据库被用于商业管理、政府办公、 科学研究和工程开发等,特别是网络系统的流行,使得信息爆炸性增长。这一趋势将 持续发展下去。大量信息在给人们带来方便的同时也带来了一大堆的问题:第一是信 息过量,难以消化;第二是信息真假难以辨认;第三是信息安全难以保证;第四是信 息形式不一致,难以统一处理。面对这种状况,一个新的挑战被提出来:如何才能不 被信息的汪洋大海所淹没,从中及时发现有用的知识,提高信息利用率呢?这时出现 了新的技术——数据挖掘(Data Mining)技术便应用而生了。 面对海量的存储数据,如何从中发现有价值的信息或知识,成为一项非常艰巨的任务。数据挖掘就是为迎合这种要求而产生并迅速发展起来的。数据挖掘研究的目的主要是 发现知识、使数据可视化、纠正数据。 二. 概述 1,数据挖掘 数据挖掘(Data Mining)就是从大量的、不完全的、有噪声的、模糊的、随机的数据中,提取隐含在其中的、人们事先不知道的、但又是潜在有用的信息和知识的过程。这些 数据可以是结构化的,如关系数据库中的数据,也可以是半结构化的,如文本,图形, 图像数据,甚至是分布在网络上的异构型数据。发现知识的方法可以是数学的,也可 以是非数学的,可以是演绎的,也可以是归纳的。发现了的知识可以被用于信息管理、查询优化、决策支持、过程控制等,还可以进行 数据自身的维护。数据挖掘借助了多年来数理统计技术和人工智能以及知识工程等领 域的研究成果构建自己的理论体系,是一个交叉学科领域,可以集成数据数据库、人 工智能、数理统计、可视化、并行计算等技术。 2,数据挖掘技术

数据挖掘知识点归纳

知识点一数据仓库 1.数据仓库是一个从多个数据源收集的信息存储库,存放在一致的模式下,并且通常驻留在单个站点上。 2.数据仓库通过数据清理、数据变换、数据集成、数据装入和定期数据刷新来构造。 3.数据仓库围绕主题组织 4.数据仓库基于历史数据提供消息,是汇总的。 5.数据仓库用称作数据立方体的多维数据结构建模,每一个维对应于模式中的一个或者一组属性,每一个单元存放某种聚集的度量值 6.数据立方体提供数据的多维视图,并允许预计算和快速访问汇总数据 7.提供提供多维数据视图和汇总数据的预计算,数据仓库非常适合联机分析处理,允许在不同的抽象层提供数据,这种操作适合不同的用户角度 8.OLAP例子包括下钻和上卷,允许用户在不同的汇总级别上观察数据 9.多维数据挖掘又叫做探索式多维数据挖掘OLAP风格在多维空间进行数据挖掘,允许在各种粒度进行多维组合探查,因此更有可能代表知识的有趣模式。 知识点二可以挖掘什么数据 1.大量的数据挖掘功能,包括特征化和区分、频繁模式、关联和相关性分析挖掘、分类和回归、聚类分析、离群点分析 2.数据挖掘功能用于指定数据挖掘任务发现的模式,分为描述性和预测性 3.描述性挖掘任务刻画目标数据中数据的一般性质 4.预测性挖掘任务在当前数据上进行归纳,以便做出预测 5.数据可以与类或概念相关联 6.用汇总、简洁、精确的表达描述类和概念,称为类/概念描述 7.描述的方法有数据特征化(针对目标类)、数据区分(针对对比类)、数据特征化和区分 8.数据特征化用来查询用户指定的数据,上卷操作用来执行用户控制的、沿着指定维的数据汇总。面向属性的归纳技术可以用来进行数据的泛化和特征化,而不必与用户交互。形式有饼图、条图、曲线、多维数据立方体和包括交叉表在内的多维表。结果描述可以用广义关系或者规则(也叫特征规则)提供。 9.用规则表示的区分描述叫做区分规则。 10.数据频繁出现的模式叫做频繁模式,类型包括频繁项集、频繁子项集(又叫频繁序列)、频繁子结构。 11.频繁项集一般指频繁地在事务数据中一起出现的商品的集合 12.频繁子序列就是一个频繁序列模式 13.子结构涉及不同的结构,可以与项集和子项集一起出现 14.挖掘频繁模式导致发现数据中有趣的关联和相关性 15.包含单个谓词的关联规则称作单维关联规则。多个谓词的关联规则叫做多维关联规则。 16.如果不能同时满足最小支持度阈值和最小置信度阈值是无趣的关联规则。 17.频繁模式挖掘的基础是频繁项集挖掘 18.分类找出描述和区分数据类或概念的模型或者函数来预测类标号未知对象的类标号。 19.导出模型是基于训练数据集的分析,预测类标号未知对象的类标号。形式有分类规则、决策树、数学公式或者神经网络 20.决策树类似流程图的树结构,每一个结点代表一个属性上的测试,每一个分支代表测试

相关主题
文本预览
相关文档 最新文档