玩玩文本挖掘
- 格式:pdf
- 大小:422.29 KB
- 文档页数:11
文本挖掘案例
文本挖掘是指通过计算机算法和统计学方法从海量的文本数据中提取出有用的信息和模式。
以下是一些文本挖掘案例:
1. 社交媒体数据挖掘:通过分析社交媒体上的用户评论和帖子,可以了解用户的兴趣、行为和偏好。
这些信息可以帮助企业制定更有效的营销策略,提高用户忠诚度。
2. 新闻挖掘:通过分析新闻网站的数据,可以了解时事热点、人物事件和社会趋势。
这些信息可以帮助媒体做出更明智的新闻报道和专题策划。
3. 健康数据挖掘:通过分析医学文献和病例,可以了解疾病的流行趋势、治疗方法和效果。
这些信息可以帮助医疗机构做出更准确的诊断和治疗决策。
4. 风险评估:通过分析客户反馈和问卷调查,可以了解客户的需求和担忧,并做出更有针对性的风险评估和解决方案。
5. 信用数据挖掘:通过分析用户信用记录和交易行为,可以了解用户的信用情况和信用风险,从而为企业和个人提供更准确的安全评估和决策支持。
文本挖掘的应用非常广泛,可以在多个领域和行业中发挥作用。
随着人工智能技术的不断发展,文本挖掘将会越来越成熟和智能化。
文本挖掘的方法嘿,朋友们!今天咱来聊聊文本挖掘这个超有意思的事儿!你说文本挖掘像不像一个神奇的矿工呀?在那堆积如山的文字矿石中,努力寻找着闪闪发光的宝贝。
咱平常在网上看到的海量信息,那可都是有待挖掘的宝藏呢!比如说,那些社交媒体上的各种帖子、评论,就像是一个个神秘的小箱子,里面说不定藏着啥有趣的秘密或有价值的观点。
我们通过文本挖掘,就可以把这些小箱子打开,一探究竟。
想象一下,我们就像一群好奇的探险家,拿着各种工具,在文字的丛林中穿梭。
有时候会发现一些让人惊喜的模式、趋势,就好像找到了隐藏在丛林深处的神秘宝藏图。
文本挖掘可不仅仅是好玩哦,它的用处那可大了去啦!企业可以用它来了解消费者的喜好和需求,这就好比是商家知道了你最爱吃啥口味的糖果,然后就能给你提供更合你心意的东西啦。
政府也能通过它来分析社会舆论,知道大家都在关心啥,然后更好地为咱老百姓服务呀。
那怎么进行文本挖掘呢?这可得有点技巧啦!首先得学会收集大量的文本数据,这就像是准备好挖矿的工具和装备。
然后呢,要用合适的方法和算法去分析这些数据,就像选择合适的挖矿手法一样。
这里面的方法可多啦,什么词频分析啦,情感分析啦,主题模型啦等等。
词频分析就像是数数,看看哪些词出现的次数最多,这能告诉我们哪些话题最热门。
情感分析呢,则像是探测人们的心情,是高兴呢还是生气呀。
文本挖掘也不是一帆风顺的呀,有时候也会遇到一些难题呢!比如说数据太多太杂,就像面对着一团乱麻,得慢慢理清。
还有可能会遇到一些模糊不清的文本,让人摸不着头脑,这可咋办呢?但咱可不能怕呀!就像爬山一样,虽然路上会有荆棘,但只要坚持,总会爬到山顶看到美丽的风景。
总之呢,文本挖掘就像是一个充满惊喜和挑战的冒险之旅。
它能让我们发现那些隐藏在文字背后的故事和秘密,让我们对这个世界有更深的了解。
所以呀,大家还等啥呢?快来一起加入这个有趣的文本挖掘大冒险吧!让我们一起在文字的海洋中遨游,寻找属于我们自己的宝藏!。
文本挖掘的实际应用案例随着互联网技术的发展,我们所接触到的信息正在以前所未有的速度不断涌现和扩散,并逐渐由传统的纸媒向电子媒介转移。
在这种信息大爆炸的时代,我们需要更加有效的方式来处理和利用这些信息。
这时候,文本挖掘的技术应运而生。
简而言之,文本挖掘可以被视为一种从海量的、未经处理的文本数据中自动提取出有价值的、潜在的知识的技术。
这项技术可以被应用到很多方面,如领域必须注重的口碑管理、舆情监测、信贷评估、竞争分析等等。
以下是几个文本挖掘的实际应用案例的举例。
1. 个性化推荐系统个性化推荐系统是一项重要的具有商业前景的应用。
具体来说,这项技术可以被用来根据每个人的浏览记录、购买记录和搜索记录等数据,自动生成个性化的商品或服务推荐,以帮助商家更好地营销和销售。
目前,Amazon、Netflix和Spotify等公司都成功地实现了这项技术并大量应用了起来。
2. 口碑管理口碑管理是每个企业都必须关注的领域。
文本挖掘技术可以被应用到对品牌口碑的管理当中,以自动提取出含有负面评价的文本数据源,并帮助企业快速发现问题的根源并解决问题。
这项技术可以被应用在支持CRM、海量信息监测、社交媒体分析、市场研究、新品发布预测等方面。
3. 舆情监测舆情监测是指根据已经发布的文本数据,来对人们的情绪和观点进行分析的过程。
这一技术被广泛运用于政治研究、金融风险管理等领域。
该技术可以以较高的准确性追踪舆情数据,以便及时采取措施遏制或处理突发事件,例如政治骚乱,恐怖袭击或公司丑闻等。
4. 金融风险管理文本挖掘也可以被用来处理金融领域中涉及的大量文本数据,例如金融新闻、报告等等,从而对市场趋势、股票分析以及企业绩效进行预测和评估。
该技术在金融世界中已经被运用于风险控制和交易决策中,帮助银行和其他金融机构发现增加风险的潜在因素,从而做出更加准确的评估和决策。
5. 组织管理领域文本挖掘技术也被应用于公司内部,以帮助人力资源管理部门自动化劳动力资金分配、招聘、绩效评估、培训、职位调整和定向安置等活动。
文本挖掘技术的使用技巧文本挖掘技术是一种利用自然语言处理、机器学习和统计学等方法,对大规模文本数据进行分析和提取有用信息的技术。
在信息爆炸的时代,文本数据成为各行各业的关键资源,文本挖掘技术的使用技巧对于有效利用这些文本数据具有重要意义。
以下将介绍一些常见的文本挖掘技术使用技巧:1. 文本预处理文本挖掘的第一步是文本预处理,即对原始文本进行清洗和整理,以便后续的分析。
这一步骤包括去除文本中的噪声数据,比如HTML标签、特殊字符等;去除停用词,如“的”,“是”等无意义的词语;进行词干化或词形还原,将单词转化为原始词根形式,以减少词语的变化形式对结果的干扰。
2. 关键词提取关键词提取是文本挖掘的一项重要任务,其目的是从文本中提取出代表性和信息量较大的词语。
常用的关键词提取方法包括基于统计的TF-IDF方法和基于机器学习的文本分类方法。
TF-IDF方法通过计算词语在文本中的频率和在整个语料库中的频率,来衡量词语在文本中的重要性。
文本分类方法则通过训练一个分类模型,从文本中自动提取出关键词。
3. 文本分类文本分类是文本挖掘的一项核心任务,其目的是将文本按照预先定义的类别进行分类。
常见的文本分类算法包括朴素贝叶斯分类器、支持向量机和深度学习方法等。
在进行文本分类之前,需要对文本进行特征提取,常见的特征提取方法包括词袋模型和词嵌入模型等。
文本分类在各个领域都有广泛的应用,比如舆情分析、垃圾邮件过滤等。
4. 情感分析情感分析是文本挖掘的一项重要任务,其目的是从文本中提取出文本作者的情感倾向,如积极、中立或消极。
情感分析可以应用于舆情监测、产品评论分析等方面。
常见的情感分析方法包括基于词典和基于机器学习的方法。
基于词典的方法通过构建情感词典,统计文本中出现的情感词的个数来判断情感倾向。
基于机器学习的方法则通过训练一个情感分类器,自动从文本中提取情感信息。
5. 实体命名识别实体命名识别是文本挖掘的一项重要任务,其目的是从文本中识别出人名、地名、组织机构名等命名实体。
文本挖掘实验报告一、实验目的本文旨在介绍文本挖掘的基本概念和应用,并通过实验验证其在自然语言处理中的有效性。
二、实验流程1. 数据收集我们选择了一份包含2000篇新闻文章的数据集,在数据预处理环节中,我们使用了Python中的pandas库对数据进行了清洗和去重。
2. 数据预处理在数据预处理阶段,我们首先对原始数据进行了分词处理,然后使用停用词表去除了常见的无意义词汇。
接着,我们对文本进行了词干化和词形还原等操作,将单词转换为其基本形式以便于后续分析。
最后,我们使用TF-IDF算法计算每个单词在整个语料库中的重要性,并将其作为特征向量。
3. 模型训练我们采用朴素贝叶斯算法和支持向量机算法分别对数据进行分类。
其中朴素贝叶斯算法是一种基于贝叶斯定理和特征条件独立假设的分类方法;而支持向量机则是一种基于间隔最大化思想构建超平面分类器的方法。
4. 模型评估为了评估模型效果,我们采用了准确率、精确率、召回率和F1值等指标。
其中准确率是指分类器正确分类的样本占总样本数的比例,精确率是指分类器正确分类的正样本占所有预测为正样本的样本数的比例,召回率是指分类器正确分类的正样本占所有实际为正样本的样本数的比例,而F1值则是综合考虑了精确率和召回率。
三、实验结果我们将数据集按照8:2的比例分为训练集和测试集,并使用朴素贝叶斯算法和支持向量机算法进行了模型训练。
在测试集上,朴素贝叶斯算法取得了87.5%的准确率、90.4%的精确率、85.3%的召回率和87.8%的F1值;而支持向量机算法则取得了88.2%的准确率、90.9%的精确率、86.0%的召回率和88.4%的F1值。
四、实验结论通过对比两种算法在测试集上表现,我们可以发现支持向量机算法略优于朴素贝叶斯算法。
此外,在数据预处理环节中,使用停用词表可以有效地去除无意义词汇,从而提高模型效果。
最后,我们可以得出结论:文本挖掘技术在自然语言处理中具有重要的应用价值,可以为文本分类、情感分析等任务提供有效的解决方案。
文本挖掘技术的使用教程与技巧文本挖掘技术是一种通过自动化方法从海量文本数据中提取有用信息的技术。
它在各个领域中都有着广泛的应用,例如信息检索、情感分析、文本分类等。
本文将介绍文本挖掘技术的使用教程与技巧,帮助读者快速了解并应用这一技术。
一、文本挖掘技术的概述文本挖掘技术是通过将自然语言处理、机器学习和统计学等方法结合,从海量文本数据中自动发现模式、识别主题、提取关键字、分析情感等信息的技术。
它可以帮助人们从大量文本中获取有价值的信息,辅助决策和预测。
二、文本挖掘技术的基本步骤1. 文本预处理:对原始文本进行处理,包括分词、去停用词、词性标注、去除噪音等。
这一步是文本挖掘的关键,直接影响后续步骤的效果。
2. 特征提取:将文本转化为特征向量表示,常用的方法包括词袋模型、TF-IDF、词向量等。
选择适当的特征表示方法可以提高文本挖掘的准确率。
3. 模型构建:根据具体任务的需求选择合适的算法模型,例如朴素贝叶斯分类器、支持向量机、深度学习模型等。
不同的任务可能需要不同的模型,需要根据实际情况进行选择。
4. 模型训练与评估:使用标注好的数据进行模型训练,并使用评估指标(如准确率、召回率、F1值等)评估模型性能。
5. 结果解释与可视化:对挖掘结果进行解释和分析,并采用可视化技术将结果呈现给用户,提升可理解性和可视性。
三、文本挖掘技术的常见任务与应用1. 信息检索:通过文本挖掘技术,可以建立强大的搜索引擎,实现高效快速地从海量文本中检索出相关信息。
搜索引擎可以应用于网页搜索、文档检索等场景。
2. 文本分类:将文本按照一定的类别划分,常用于情感分析、主题分类等。
通过文本分类,可以自动将文本归类,提高信息处理的效率和精确度。
3. 情感分析:分析文本中蕴含的情感倾向,帮助企业了解用户的情感态度。
在社交媒体分析、舆情监测等领域,情感分析具有重要的应用价值。
4. 关键词提取:从文本中提取关键词或关键短语,帮助用户快速理解文本主题。
文本挖掘软件 课程设计一、课程目标知识目标:1. 学生能理解文本挖掘软件的基本概念、功能及在数据处理中的重要性。
2. 学生能掌握文本挖掘软件的基本操作流程,包括数据导入、预处理、特征提取和结果分析。
3. 学生能了解文本挖掘在不同领域的应用案例,并与所学知识进行关联。
技能目标:1. 学生能够独立使用文本挖掘软件进行简单的数据挖掘任务,如词频分析、情感分析和主题建模。
2. 学生能够通过实际操作,掌握数据清洗和预处理技巧,提高文本挖掘的准确性和效率。
3. 学生能够运用文本挖掘结果,进行数据可视化展示,提升报告撰写和演讲能力。
情感态度价值观目标:1. 学生能够认识到文本挖掘在信息时代的重要性,培养对数据分析的热爱和兴趣。
2. 学生通过小组合作完成项目任务,培养团队协作和沟通能力,增强解决问题的自信心。
3. 学生能够关注文本挖掘在现实生活中的应用,学会用数据的眼光分析问题,形成理性思考和批判性思维。
课程性质:本课程为实践性较强的信息技术课程,旨在帮助学生掌握文本挖掘软件的使用,提高数据处理和分析能力。
学生特点:高中年级学生对计算机操作和数据分析有一定的基础,具备一定的自主学习能力和团队协作精神。
教学要求:教师需结合课本内容,注重实践操作,引导学生通过实际案例掌握文本挖掘技术。
同时,关注学生的个体差异,提供个性化指导,确保课程目标的实现。
在教学过程中,将目标分解为具体的学习成果,便于教学设计和评估。
二、教学内容1. 文本挖掘基本概念与原理:介绍文本挖掘的定义、目的和主要任务,解析文本挖掘的基本流程和关键技术。
教材章节:第一章 文本挖掘概述内容列举:1.1 文本挖掘的定义与意义;1.2 文本挖掘的主要任务;1.3 文本挖掘的基本流程。
2. 文本挖掘软件操作与实践:以常用文本挖掘软件(如R语言、Python等)为例,讲解软件安装、配置及基本操作方法。
教材章节:第二章 文本挖掘软件及其操作内容列举:2.1 文本挖掘软件的安装与配置;2.2 文本数据导入与预处理;2.3 特征提取与建模;2.4 挖掘结果分析与评估。
文本挖掘方法python(最新版4篇)目录(篇1)一、文本挖掘方法概述1.文本挖掘的定义2.文本挖掘的应用领域3.文本挖掘的方法和工具二、文本挖掘方法的应用1.情感分析2.主题提取3.实体识别和关系抽取4.文本分类和聚类三、文本挖掘方法的优缺点1.优点2.缺点3.应用限制正文(篇1)文本挖掘是一种从大量文本数据中提取有用信息的过程。
它广泛应用于自然语言处理、信息检索、数据挖掘等领域,可以用于情感分析、主题提取、实体识别和关系抽取、文本分类和聚类等多种应用。
以下是文本挖掘方法的应用和优缺点。
一、文本挖掘方法概述1.文本挖掘的定义:文本挖掘是指从大量文本数据中提取有用的信息和知识的过程。
它包括文本预处理、特征提取、模型训练、结果解释等步骤。
2.文本挖掘的应用领域:文本挖掘可以应用于各种领域,如社交媒体、新闻媒体、互联网搜索、金融、医疗等。
它可以用于情感分析、主题提取、实体识别和关系抽取、文本分类和聚类等多种应用。
3.文本挖掘的方法和工具:常用的文本挖掘方法包括基于规则的方法、基于统计的方法和基于机器学习的方法。
常用的工具包括Python、R语言、NLP库如NLTK、spaCy等。
二、文本挖掘方法的应用1.情感分析:情感分析是一种通过分析文本的情感倾向性来了解用户对某个话题或产品的态度的方法。
它可以用于社交媒体监测、产品评论分析等。
2.主题提取:主题提取是一种从大量文本数据中提取主题或主题模型的方法。
它可以用于舆情分析、新闻报道分析等。
3.实体识别和关系抽取:实体识别和关系抽取是一种从大量文本数据中提取实体及其之间的关系的方法。
它可以用于社交网络分析、生物信息学等。
4.文本分类和聚类:文本分类和聚类是一种将大量文本数据分为不同类别或簇的方法。
它可以用于信息检索、数据可视化等。
目录(篇2)一、文本挖掘方法概述1.文本挖掘的定义2.文本挖掘的应用领域3.文本挖掘的基本步骤二、文本挖掘的主要方法1.词频统计方法2.主题模型方法3.深度学习模型方法三、文本挖掘的应用案例1.舆情分析2.广告推荐3.知识图谱构建正文(篇2)文本挖掘方法是一种通过对文本进行分析、处理和挖掘,从中提取有用信息的方法。
文本挖掘的具体应用案例
嘿,朋友们!今天咱就来讲讲文本挖掘的那些超酷应用案例。
比如说,在电商领域,这就像个魔法棒一样!你在网上买东西的时候,系统咋知道给你推荐啥呢?这就是文本挖掘在起作用啦!它就像个超级侦探,能从你以前买过的东西、浏览过的页面这些文本信息里,挖出你的喜好,然后给你推荐一堆你可能喜欢的玩意儿,哇塞,这多厉害呀!
还有哦,在社交网络上,文本挖掘那也是大显身手呢!你发的每一条状态、每一句话,都能被它分析分析。
就好比有人在默默地观察着你,了解你的心情、你的兴趣。
然后呢,平台就能根据这些信息给你推送更合你胃口的内容啦,这不是超有意思嘛!
再看看医疗领域,哇哦,文本挖掘简直就是个宝藏工具呀!医生们写的病历,那可是大量的文本信息呀。
通过文本挖掘,能快速地找出一些疾病的规律、患者的特点啥的。
这就像是在一堆宝藏里找到了最闪亮的那颗宝石,能帮医生们更好地诊断和治疗呢!你说神不神?
不止这些呢,在金融领域也有它的身影呀!它能从大量的金融报告、新闻里挖掘出有价值的信息,帮助投资者做出更明智的决策。
这就好像有个智慧的军师在旁边给你出谋划策一样,是不是超赞的!
总之呢,文本挖掘的应用真的是无处不在呀!它就像个神奇的小精灵,在各个领域蹦跶着,给我们的生活带来了好多便利和惊喜。
所以呀,我们可得好好感谢这个文本挖掘的魔力呢!让我们的生活变得更加丰富多彩啦!。
玩玩文本挖掘-wordcloud、主题模型与文本分类Askyer(QQ:642874367)序本文主要介绍文本挖掘的常见方法,主要包括词频分析及wordcloud展现、主题模型、文本分类、分类评价等。
分类主要包括无监督分类(系统聚类、KMeans、string kernals),有监督分类(knn、SVM)。
文本挖掘概念将数据挖掘的成果用于分析以自然语言描述的文本,这种方法被称为文本挖掘(Text Mining)或文本知识发现(Knowledge Discovery in Text)。
文本挖掘主要过程:特征抽取、特征选择、文本分类、文本聚类、模型评价。
主题模型(Topic Mode)介绍主题模型是专门抽象一组文档所表达“主题”的统计技术。
最早的模型是probabilistic latent semantic indexing (PLSI),后来Latent Dirichlet allocation (LDA,潜在狄利克雷分配模型) 模型成为了最常见的主题模型,它可以认为是PLSI 的泛化形式。
LDA 主题模型涉及到贝叶斯理论、Dirichlet 分布、多项分布、图模型、变分推断、EM 算法、Gibbs 抽样等知识。
实例分析0.数据预处理数据来源于sougou实验室数据。
数据网址:/dl/sogoulabdown/SogouC.mini.20061102.tar.gz 文件结构└─Sample├─C000007 汽车├─C000008 财经├─C000010 IT├─C000013 健康├─C000014 体育├─C000016 旅游├─C000020 教育├─C000022 招聘├─C000023 文化└─C000024 军事采用Python对数据进行预处理为train.csv文件,并把每个文件文本数据处理为1行。
1.读取资料库setwd("d:\\Testing\\R\\w12")csv <- read.csv("train.csv",header=T, stringsAsFactors=F)mystopwords<- unlist (read.table("StopWords.txt",stringsAsFactors=F))2.数据预处理(中文分词、stopword处理)library(tm)#移除数字removeNumbers = function(x) { ret = gsub("[0-90123456789]","",x) }#中文分词,也可以考虑使用rmmseg4j、rsmartcnwordsegment<- function(x) {library(Rwordseg)segmentCN(x)}#去除停止词,效果比较差,可以进一步完善removeStopWords = function(x,words) {ret = character(0)index <- 1it_max <- length(x)while (index <= it_max) {if (length(words[words==x[index]]) <1) ret <- c(ret,x[index])index <- index +1}ret}sample.words <- lapply(csv$text, removeNumbers)sample.words <- lapply(sample.words, wordsegment)#先处理中文分词,再处理stopwords,防止全局替换丢失信息sample.words <- lapply(sample.words, removeStopWords, mystopwords)#构建语料库corpus = Corpus(VectorSource(sample.words))meta(corpus,"cluster") <- csv$typeunique_type <- unique(csv$type)#建立文档-词条矩阵(sample.dtm <- DocumentTermMatrix(corpus, control = list(wordLengths = c(2, Inf))))3.wordcloud展示library(wordcloud)#不同文档wordcloud对比图sample.tdm <- TermDocumentMatrix(corpus, control = list(wordLengths = c(2, Inf))) tdm_matrix <- as.matrix(sample.tdm)png(paste("sample_comparison",".png", sep = ""), width = 1500, height = 1500 ) comparison.cloud(tdm_matrix)title(main = "sample comparision")dev.off()#按分类汇总wordcloud对比图n <- nrow(csv)zz1 = 1:ncluster_matrix<-sapply(unique_type,function(type){apply(tdm_matrix[,zz1[csv$type==type]],1,su m)})png(paste("sample_ cluster_comparison",".png", sep = ""), width = 800, height = 800 ) comparison.cloud(cluster_matrix)title(main = "sample cluster comparision")dev.off()可以看出数据分布不均匀,culture、auto等数据很少。
#按各分类画wordcloudsample.cloud <- function(cluster, maxwords = 100) {words <- sample.words[which(csv$type==cluster)]allwords <- unlist(words)wordsfreq <- sort(table(allwords), decreasing = T)wordsname <- names(wordsfreq)png(paste("sample_", cluster, ".png", sep = ""), width = 600, height = 600 )wordcloud(wordsname, wordsfreq, scale = c(6, 1.5), min.freq = 2, max.words = maxwords, colors = rainbow(100))title(main = paste("cluster:", cluster))dev.off()}lapply(unique_type,sample.cloud)# unique(csv$type)#列出第一副和最后一幅图4.主题模型分析library(slam)summary(col_sums(sample.dtm))term_tfidf <- tapply(sample.dtm$v/row_sums( sample.dtm)[ sample.dtm$i], sample.dtm$j, mean)*log2(nDocs( sample.dtm)/col_sums( sample.dtm > 0)) summary(term_tfidf)sample.dtm <- sample.dtm[, term_tfidf >= 0.1]sample.dtm <- sample.dtm[row_sums(sample.dtm) > 0,]k <- length(unique(csv$type))library(topicmodels)SEED <- 2012sample_TM <- list(VEM = LDA( sample.dtm2, k=k, control = list(seed = SEED)),VEM_fixed = LDA( sample.dtm2, k = k, control = list(estimate.alpha = FALSE, seed = SEED)), Gibbs = LDA( sample.dtm2, k = k, method = "Gibbs", control = list(seed = SEED, burnin = 1000, thin = 100, iter = 1000)),CTM = CTM( sample.dtm2, k = k, control = list(seed = SEED, var = list(tol = 10^-4), em = list(tol = 10^-3))))sapply(sample_TM[1:2], slot, "alpha")α估计严重小于默认值,这表明Dirichlet分布数据集中于部分数据,文档包括部分主题。
sapply(sample_TM, function(x) mean(apply(posterior(x)$topics,1, function(z) -sum(z*log(z)))))数值约高说明主题分布更均匀#最可能的主题文档Topic <- topics(sample_TM[["VEM"]], 1)#每个Topc前5个TermTerms <- terms(sample_TM[["VEM"]], 5)Terms[, 1:10]从结果来看,与原有手工10大分类“汽车、财经、IT、健康、体育、旅游、教育、招聘、文化、军事”对比,可以发现旅游、军事等主题还比较明显,但总的效果不是很理想(可以和“按分类汇总wordcloud对比图”对比一下)。
5.文本分类-无监督分类,包括系统聚类、KMeans、string kernals。