文本分类算法研究和数据挖掘
- 格式:doc
- 大小:34.00 KB
- 文档页数:9
数据挖掘中的文本分类方法随着互联网时代的到来,大量的文本数据被产生和存储。
如何从这些海量的文本数据中提取有用的信息,成为了数据挖掘领域的一个重要研究方向。
文本分类作为数据挖掘的一个重要任务,旨在将文本数据自动分类到预定义的类别中。
本文将介绍数据挖掘中的文本分类方法,并探讨其应用和发展。
一、传统的文本分类方法在数据挖掘领域的早期,传统的文本分类方法主要基于统计和机器学习的技术。
其中,朴素贝叶斯分类器是一种常用的方法。
它基于贝叶斯定理,通过计算文本中每个词语出现的概率来进行分类。
此外,支持向量机、决策树等机器学习算法也被广泛应用于文本分类任务中。
这些方法在一定程度上能够实现文本分类的目标,但也存在一些问题。
例如,传统方法对于文本中的语义信息理解能力较弱,无法很好地处理词义的多样性和上下文的复杂关系。
二、基于深度学习的文本分类方法随着深度学习的兴起,基于深度学习的文本分类方法逐渐受到关注。
深度学习模型能够自动从大量的文本数据中学习特征表示,从而提高文本分类的准确性。
其中,卷积神经网络(CNN)和循环神经网络(RNN)是两种常用的深度学习模型。
卷积神经网络在图像处理领域取得了巨大成功,而在文本分类中也得到了广泛应用。
通过卷积操作,CNN能够捕捉文本中的局部特征,并通过池化操作对特征进行降维和组合。
这种方法能够有效地处理文本中的局部信息,并具有较好的分类性能。
循环神经网络是一种能够处理序列数据的神经网络模型。
在文本分类中,RNN 能够捕捉文本中的上下文信息,并通过长短期记忆(LSTM)或门控循环单元(GRU)等机制来解决长序列依赖的问题。
RNN在处理文本分类任务时能够更好地考虑词语之间的顺序关系,从而提高分类的准确性。
除了CNN和RNN,深度学习模型还有许多其他的变体和扩展,如注意力机制、Transformer等。
这些模型在文本分类中的应用不断推动着文本分类方法的发展。
三、文本分类方法的应用和发展文本分类方法在实际应用中具有广泛的应用前景。
大规模文本数据挖掘的方法与工具选择指南随着信息时代的到来,大规模文本数据的产生和积累已成为了一种普遍现象。
这些数据蕴藏着许多有价值的信息,但如何挖掘并利用这些海量文本数据成为了一个新的挑战。
本文将为您介绍大规模文本数据挖掘的方法与工具选择指南,帮助您在处理和分析大规模文本数据时做出明智的决策。
一、文本数据挖掘方法1. 文本分类文本分类是文本数据挖掘的基本任务之一。
其目标是将文本划分为不同的类别或标签。
常用的文本分类方法包括朴素贝叶斯、支持向量机、决策树等。
这些算法可以根据文本的关键词、统计特征、上下文信息等进行分类预测。
在选择文本分类方法时,要考虑模型的准确性、效率和可扩展性。
2. 文本聚类文本聚类是将相似的文本分组的任务,其目标是发现文本数据中的群组结构。
常用的文本聚类方法包括基于k-均值聚类、层次聚类、密度聚类等。
这些方法根据文本的相似性度量进行聚类,可以帮助我们发现文本数据中的潜在主题和模式。
在选择文本聚类方法时,要考虑聚类的准确性、稳定性和可解释性。
3. 文本情感分析文本情感分析是对文本情感或观点进行分类和分析的任务。
它可以帮助我们了解用户对产品、服务或事件的情感倾向。
常用的文本情感分析方法包括基于情感词典、机器学习和深度学习等。
这些方法可以将文本分为正面、负面或中性情感,并提供情感极性得分。
在选择文本情感分析方法时,要考虑情感分类的准确性、多样性和泛化能力。
二、文本数据挖掘工具选择指南1. OpenNLPOpenNLP是一个开源的自然语言处理工具包,提供了各种文本数据挖掘方法的实现。
它包含了词性标注、命名实体识别、文本分类等功能,并提供了易于使用的API接口。
OpenNLP具有较高的准确性和效率,适用于处理大规模文本数据。
2. NLTKNLTK(Natural Language Toolkit)是Python中常用的自然语言处理工具包。
它提供了丰富的文本数据挖掘方法和算法,包括文本预处理、文本分类、情感分析等。
聚类与分类算法在文本挖掘中的应用研究文本挖掘是数据挖掘的一个重要分支,旨在通过对大规模文本数据的分析和理解,发现其中隐藏的模式、关系和知识。
在文本挖掘中,聚类与分类算法是两个常用的技术,它们能够帮助我们对文本数据进行有效的组织、分类和预测。
本文将探讨聚类与分类算法在文本挖掘中的应用研究。
聚类算法是一种将相似的对象归为一类的技术。
在文本挖掘中,聚类算法主要应用于无监督学习的任务,即在没有事先给定类别标签的情况下,对文本进行自动的聚类分析。
目前,常用的聚类算法有K-means算法、层次聚类算法和密度聚类算法等。
K-means算法是一种基于距离的聚类算法,其思想是通过迭代计算,将文本样本划分为K个不同的聚类。
算法首先需要选择K个聚类中心,然后根据文本样本与聚类中心之间的距离,将样本分配到最近的聚类中心中。
随后,根据新的聚类分配情况,重新计算聚类中心的位置,直到满足停止条件为止。
K-means算法适用于大规模数据集和高维特征向量,在文本挖掘中常用于对新闻、社交媒体等文本数据进行聚类分析。
层次聚类算法是一种基于层次结构的聚类算法,其通过构建一个聚类层次树来组织文本对象。
该算法将每个对象视为一个初始聚类簇,然后逐步合并具有最小相似度的聚类簇,直到形成一个全局聚类簇。
层次聚类算法能够提供更加详细的聚类结果,适用于对文本数据进行细粒度的聚类分析。
密度聚类算法是一种基于密度的聚类算法,其根据文本对象的局部密度来进行聚类划分。
该算法首先分析文本数据的密度分布,并通过定义密度阈值来标记核心对象和噪声点。
随后,通过相邻点的连接,将核心对象聚集在一起,形成不同的聚类簇。
密度聚类算法对于具有复杂的聚类结构和噪声数据的情况下,表现出较好的聚类性能。
分类算法是一种通过训练样本的类别信息,为新的文本对象分配类别标签的技术。
在文本挖掘中,分类算法通常用于监督学习的任务,即在已知类别标签的情况下,对文本数据进行预测和分类。
常见的分类算法有朴素贝叶斯算法、支持向量机算法和决策树算法等。
文本分类算法研究作者:赵岩周斌陈儒华来源:《软件导刊》2013年第10期摘要摘要:文本分类是文本数据挖掘领域的重要技术之一。
从分类算法对文本语义信息的利用程度这一角度出发,将文本分类划分为基于词形的算法和基于语义的算法两类,对每类算法进行了描述,并对当今文本数据的多样性及文本分类算法改进的可选方向进行了研究。
关键词关键词:文本分类;机器学习;语义信息;数据挖掘中图分类号:TP301.6文献标识码:A文章编号文章编号:16727800(2013)0010005403基金项目:国家重点基础研究发展计划(973计划)项目(SQ2012CB03747);国家自然科学基金重点课题(60933005)作者简介:赵岩(1986-),男,国防科学技术大学计算机学院硕士研究生,研究方向为数据挖掘;周斌(1971-),男,博士,国防科学技术大学计算机学院研究员,研究方向为数据挖掘、海量数据处理;陈儒华(1987-),男,国防科学技术大学计算机学院硕士研究生,研究方向为数据挖掘、社交网络分析。
0引言文本分类是指在带有类别标签的文本集合中,根据每个类别的文本子集合的共同特点,找出一个分类模型,以便在后续过程中将未标识文本映射到已有类别的过程。
文本分类是一种文本处理手段,能较好地解决大量文档信息归类的问题进而应用到很多场景中,如基于受控词典的文档自动索引、文档过滤、元数据的自动生成、词义辨别、资源层次分类等,同时,它也是很多信息管理任务的重要组成部分[1]。
自动分类的研究可以追溯到上世纪50年代;上世纪80年代末之前,自动分类问题大多采用知识工程的方法,即利用专家规则来进行分类;上世纪90年代以后,统计方法和机器学习的方法被引入到文本自动分类中,取得了丰硕的成果并逐渐取代了知识工程方法。
文本分类的一般流程为文本预处理、特征抽取、构建分类器和分类结果评价。
目前,针对文本分类的算法主要集中在特征抽取和分类器构建这两个方面。
本文主要介绍文本分类中的几种常用算法。
文本数据挖掘技术研究一、绪论文本数据挖掘技术是数据挖掘领域的一个分支,其主要目标是从文本数据中挖掘有用的信息和知识。
文本是人类信息交流的一种主要形式,随着互联网的发展,大量的文本数据产生并存储在各种数据源中,这些文本数据包含了大量的信息和知识,但是由于文本数据的复杂性和海量性质,人们难以快速地获取和利用这些信息和知识。
因此,文本数据挖掘技术的研究和应用具有重要的意义。
二、文本数据挖掘技术的分类文本数据挖掘技术可以分为三大类:文本预处理技术、特征提取和选择技术和模型构建和评估技术。
1. 文本预处理技术文本预处理技术是文本数据挖掘技术中最基础和最重要的一个环节,文本的质量和处理方法直接决定了后续挖掘过程的效果和精度。
文本预处理的主要任务包括文本清洗、分词、去除停用词、词干提取、词向量化等。
其中,文本清洗的目的是去除无效信息和噪声,提高文本质量;分词是将文本分解为独立的词语,为后续处理提供基础;去除停用词是去除与文本主题无关的词语,减小文本规模和提高处理效率;词干提取是将词语还原为词干,减少语义冗余;词向量化是将词语转换为向量表示,便于后续的特征提取和选择。
2. 特征提取和选择技术特征提取和选择技术是文本数据挖掘技术中的核心环节,特征提取是将文本转化为数值特征向量表示,每个特征表示一个文本中的某种特定的语言、语法、语义或主题属性;而特征选择是从原始的文本特征中选择出与目标任务相关的、具有区分性的特征。
特征提取和选择的目的是降低复杂性,提高处理效率和准确率,同时保持一定的语言、语义、主题信息。
3. 模型构建和评估技术模型构建和评估技术是文本数据挖掘技术中的最核心、最重要的一环,其目的是从文本中挖掘出潜在的规律、知识和信息。
模型构建包括分类、聚类和关联规则挖掘等。
文本分类是基于文本中的特征和类别标注信息来构建分类模型,将未知文本归类为已知类别;文本聚类是将文本数据进行分组、归类的过程,具有自动化的特点;关联规则挖掘是发现排列在一起频繁出现的项集,也称为频繁项集挖掘。
基于主题模型的文本数据挖掘与分析研究随着互联网的普及,人们创造的内容越来越丰富,而其中最重要的一种就是文本数据。
然而,文本数据的数量如此之大,如果仅仅依靠人力去挖掘、分析这些数据,那么时间和精力都无法承受。
于是,研究如何利用计算机技术快速高效地挖掘、分析文本数据便成了一个热门的研究领域。
而本文将聚焦于基于主题模型的文本数据挖掘与分析研究,探讨其原理和应用。
一、主题模型主题模型是一种文本分析方法,它旨在从大量文本数据中发掘出主题,并给出这些主题的一种概率分布。
其核心思想是:认为文本数据中的每一个单词,都是由某个主题随机生成的一种词语。
而一个文档内的所有单词,则是由一组主题组合而成的。
如此一来,便可以通过计算每个主题所包含的单词概率来确定文档涉及到的主题。
主题模型不仅可以用于挖掘文本数据中的主题,还可以用于文本分类、推荐系统、情感分析等研究领域。
二、主题模型的算法主题模型的算法有很多种,其中最常见的是LDA(Latent Dirichlet Allocation)算法。
LDA算法可以将每一个文档看做一个生成模型,并且认为每个文档都是通过随机选取若干主题的方式生成的。
同时,每个主题又是由一些词共同组成的。
接着,在给定一些文档的基础上,对于每一个单词,通过计算它属于每个主题的概率,来推断出每个文档的主题分布和所有主题的单词分布。
LDA算法的优点在于,能够自动提取出文本中的主题,并且可以有效地处理高维稀疏数据。
三、主题模型的应用主题模型在很多领域都有着广泛的应用。
首先,它可以用于文本分类。
在这种情况下,我们需要先训练一个主题模型,并将不同类别的文本分别赋予不同的主题。
之后,我们可以将新来的文本分别与这些主题进行比较,从而将其分类到相应的类别中去。
其次,主题模型可以用于推荐系统。
假设我们想为某个用户推荐一些文档。
在这种情况下,我们可以先利用主题模型,将每个文档分别属于哪些主题进行统计。
之后,我们可以找到该用户经常浏览的主题,并为他推荐那些与这些主题相关的文档。
文本挖掘技术的研究与实践随着信息时代的到来,数据量不断增加,给人们带来了更多的信息,但同时也给信息处理带来了巨大的挑战。
文本挖掘技术的出现为解决这个难题提供了新的方法和技术手段。
本文将会从定义、分类、技术原理、典型应用四个方面分析文本挖掘技术的研究与实践。
一、概述文本挖掘(Text Mining)是指从大量未经结构化的文本数据中通过数据挖掘技术和自然语言处理技术自动提取出有用的信息和知识的过程。
文本挖掘技术的应用范围非常广泛,包括金融、医疗、新闻、社交、生物等领域。
二、分类文本挖掘的应用范围非常广泛,根据应用场景和技术手段的不同,文本挖掘可以分为以下几个方面:1. 文本分类:指将文本按照某种标准进行分类。
2. 文本聚类:指将文本按照相似性进行分组,每个组称为一个聚类。
3. 关键词抽取:从文本数据中提取出最能反映文本意义的词语。
4. 实体抽取:识别文本中的人名、地名、机构名等实体元素。
5. 情感分析:根据文本上下文的分析,判别文本的情感倾向。
三、技术原理文本挖掘技术的基本流程包括分词、特征选择、建立模型、模型评估等。
其中,文本的分词是指将文本内容分割成适当的词语,词语则是文本挖掘的基本单位。
文本特征是指用来描述文本某一局部或所有的特殊性质,包括词频、信息熵、TF-IDF等。
其中,TF-IDF是计算一个词语在文档中出现频率和在所有文档中出现频率之比,用于衡量一个词语对于一个文档的重要性。
建立模型包括监督学习和非监督学习,其中最常见的算法包括朴素贝叶斯、支持向量机等。
模型评估则是通过预测和现实的比较来评估模型的准确性和可预测性。
四、典型应用文本挖掘在实际应用中有着非常广泛的应用场景,主要包括以下几个方面:1. 情报分析:文本挖掘可以用来分析各种新闻、论文等文本信息,帮助政府、企业等机构做出更明智的决策。
2. 金融分析:文本挖掘可以用于金融新闻和分析报告的挖掘和分析,帮助投资者做出更加明智的决策。
3. 市场营销:文本挖掘可以帮助企业利用社交媒体和用户评论等文本信息进行市场调研分析,找出潜在的商业机会。
人工智能专业课程分类人工智能(Artificial Intelligence,简称AI)是计算机科学的一个分支领域,致力于研究和开发智能机器。
随着人工智能技术的不断发展和应用,越来越多的高校开始开设相关专业课程,培养人工智能领域的专业人才。
本文将对人工智能专业课程进行分类,以便读者更好地了解人工智能专业知识体系的构建。
一、基础理论课程1. 数学基础:包括线性代数、概率论与数理统计、微积分等数学知识,这些基础理论对于人工智能算法的理解和应用至关重要。
2. 计算机科学导论:介绍计算机科学的基本概念、发展历程、研究方法等,为学生打下计算机科学的基础。
3. 数据结构与算法:学习不同数据结构和算法的原理、特点和应用,为后续的人工智能算法研究打下基础。
二、机器学习与数据挖掘课程1. 机器学习基础:介绍机器学习的基本概念、算法和方法,如监督学习、无监督学习、强化学习等,培养学生的机器学习思维。
2. 数据挖掘与预测分析:学习从大规模数据中提取有用信息的方法和技术,包括数据清洗、特征选择、模型构建等。
3. 深度学习:探究神经网络的基本原理和深度学习算法的应用,包括卷积神经网络、循环神经网络等。
三、自然语言处理与语音识别课程1. 自然语言处理基础:学习自然语言处理的基本概念、技术和方法,如分词、词性标注、句法分析等。
2. 信息检索与文本挖掘:研究从大量文本数据中获取有用信息的方法和技术,包括文本分类、文本聚类、关键词提取等。
3. 语音信号处理与语音识别:探索语音信号处理的基本原理和语音识别算法的应用,包括声学建模、语言模型等。
四、计算机视觉与图像处理课程1. 图像处理基础:学习图像处理的基本概念、技术和方法,如图像增强、图像分割、图像压缩等。
2. 计算机视觉基础:研究计算机对图像和视频进行理解和分析的技术和方法,如目标检测、图像识别、图像生成等。
3. 深度学习在计算机视觉中的应用:探索深度学习在计算机视觉领域的应用,如卷积神经网络在图像分类、目标检测中的应用等。
文本分类算法研究和数据挖掘摘要:文本分类是文本数据挖掘领域的重要技术之一。
从分类算法对文本语义信息的利用程度这一角度出发,将文本分类划分为基于词形的算法和基于语义的算法两类,对每类算法进行了描述,并对当今文本数据的多样性及文本分类算法改进的可选方向进行了研究。
关键词:文本分类;机器学习;语义信息;数据挖掘0引言文本分类是指在带有类别标签的文本集合中,根据每个类别的文本子集合的共同特点,找出一个分类模型,以便在后续过程中将未标识文本映射到已有类别的过程。
文本分类是一种文本处理手段,能较好地解决大量文档信息归类的问题进而应用到很多场景中,如基于受控词典的文档自动索引、文档过滤、元数据的自动生成、词义辨别、资源层次分类等,同时,它也是很多信息管理任务的重要组成部分<sup>[1]</sup>。
自动分类的研究可以追溯到上世纪50年代;上世纪80年代末之前,自动分类问题大多采用知识工程的方法,即利用专家规则来进行分类;上世纪90年代以后,统计方法和机器学习的方法被引入到文本自动分类中,取得了丰硕的成果并逐渐取代了知识工程方法。
文本分类的一般流程为文本预处理、特征抽取、构建分类器和分类结果评价。
目前,针对文本分类的算法主要集中在特征抽取和分类器构建这两个方面。
本文主要介绍文本分类中的几种常用算法。
对于分类算法的分类方式目前没有统一的结论<sup>[12]</sup>,鉴于各分类算法对文本语义信息的利用程度不同,可以考虑将其分为基于词形的文本分类和基于语义的文本分类两大类别。
1基于词形的文本分类基于词形的方法倾向于将文本视为无意义无联系的字或词的集合,几乎没有利用文本的语义信息。
1.1贝叶斯分类贝叶斯分类算法以贝叶斯理论为基础,是一种利用先验概率与条件概率进行文本分类的算法,具有实现简单、准确率高、速度快的特点。
贝叶斯算法基于独立性假设,即一个属性对给定类的影响独立于其它属性的值。
独立性假设的约束过于强,在实际应用中经常是不成立的,因此在很多情况下其分类准确率并不能保证<sup>[3]</sup>。
1.2决策树本文将决策树视为一种基于规则学习的算法,其目的是学习一系列分类规则,即属性与类别的关系。
在决策树算法中,分类规则可用从根节点到任一叶节点的路径表示,具有很强的可理解性和可用性。
该算法涉及两个核心问题:决策树的建立和决策树的剪枝。
常见决策树算法包括CART、ID3、C4.5、CHAID等。
其中影响最大的是ID3<sup>[4]</sup>,该算法由Quinlan于1986年提出,算法的理论清晰、方法简单,但只对较小的数据集有效,且对噪声敏感,在测试属性选择时,它倾向于选择取值较多的属性。
C4.5算法是对ID3的改进,主要解决了ID3 算法选择偏向取值较多的属性问题。
1.3k最近邻k最近邻算法是一种基于实例的消极学习算法。
该算法的思想是:统计一个样本在特征空间中的k个最相似的样本类别,进而采用加权投票的方式确定待分类样本的类别。
KNN分类器只存储实例,对于每个未知输入都要遍历训练样本,因而在应对大量待分类数据时其算法效率很低。
1.4Rocchio算法Rocchio算法是20世纪70年代左右在Salton的SMART系统中引入并广泛流传的一种分类算法,它通过构造类别的中心向量及相应类域的方式进行分类。
该方法的优点是简单且直观,缺点是对线性不可分的数据及含噪声的数据分类效果差。
1.5支持向量机支持向量机(Support Vector Machines,SVM)方法是由V.Vapnik 与其领导的贝尔实验室小组一起开发出来的一种机器学习技术。
SVM是一种线性分类器,采用结构风险最小化原则,其特点是能够同时最小化经验误差且最大化几何边缘区,最终将分类问题转化为求解最优决策超平面问题。
该方法属于研究小样本情况下机器学习规律的统计学习理论范畴,对小样本情况具有较好的适应性,克服了“过学习”现象,具有相对优良的性能指标。
影响SVM 的分类性能最重要的两个因素是误差惩罚参数和核函数。
1.6神经网络神经网络是对神经系统的一种模拟。
在文本分类中,神经网络由一组神经元组成,其输入单元通常代表词项,输出单元表示类别或类别兴趣度,神经元的连接权重表示条件依赖关系。
对于文本分类,文档向量权重通常作为输入。
其训练通常用BP算法来进行,时间开销一般很大。
最简单的用于文本分类的神经网络为感知器。
感知器实际上是一种线性分类器,它将分类问题转化为对错误分类的修正问题,通过对所有训练实例进行多次迭代和更新的方式来使错误分类的数量低于某一阈值,从而求得各个输入分量连接到感知机的权量。
最近,一种新兴的多层神经网络学习算法——深度学习引起了机器学习领域的广泛关注。
深度学习算法通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
目前,深度学习已经在计算机视觉、语音识别等领域获得一定程度的应用,但在自然语言处理方面尚未获得系统性突破。
1.7线性最小平方拟合线性最小平方拟合是一种线性模型的参数估计方法,它将分类问题转为拟合问题。
训练数据用输入/输出向量对表示,其中输入向量用传统向量空间模型表示的文档(词和权重),输出向量则是文档对应的分类(带有二元权重)。
通过求解这些向量对的线性最小平方拟合,可以得到一个单词分类的回归系数矩阵<sup>[5]</sup>。
1.8Ngram方法Ngram是一种依赖于上下文环境的字(词)的概率分布的统计语言模型。
该方法将文本视为N元字(词)链的集合而非“词袋”,并由马尔可夫链模型来表征。
其特征选取方式为:将文本内容视为单词序列并进行大小为N的滑动窗口操作,形成新的长度为N的单词片断序列,每个N元单词片断即为一个特征。
由于中英文的不同,在设计基于N元语言模型的中文文本分类器时,首要问题是选择基于字级还是基于词级的N元语言模型,其次是选取合适的N值。
基于字级的Ngram算法对拼写错误的容错能力强且不需要词典和规则,但因其需要选择较大的N值,算法复杂度较高;而词的表达能力要强于字,所以基于词级的Ngram可以选取较小的N值,算法效率相对较高。
1.9多分类器组合多分类器组合是一种用来提高弱分类算法准确度的多算法集成框架,它将强分类器的获取问题转化为多个弱分类器的融合问题,其核心步骤是基分类器的生成与组合策略的选择。
多分类器组合的思想来源于Valiant在1984年提出的PAC (Probably Approximately Correct)模型。
PAC模型将识别准确率仅比随机猜测略高的算法称为弱学习算法,而识别准确率很高且能在多项式时间内完成的算法则被称为强学习算法。
同时,Valiant也提出了弱学习算法和强学习算法的等价性问题,即将弱学习算法提升为强学习算法。
1990年,Schapire构造出一种多项式算法,对该问题做了肯定的证明,这就是经典的Boosting算法<sup>[6]</sup>。
但Boosting 算法需要事先知道弱学习算法识别准确率的下限,因而其在实际应用上存在一定困难。
针对这一问题,Freund和Schapire于1995年提出了AdaBoost(Adaptive Boosting)算法<sup>[7]</sup>,该算法在实现过程中不需要任何关于弱学习算法的先验知识。
多分类器组合包含两个核心步骤:一个是基分类器的生成阶段,即如何生成多个不同的基分类器;另外一个是组合阶段,即如何使用基分类器来对测试实例进行分类,综合形成一个最终的分类结果。
2基于语义语法的文本分类基于语义语法的方法将文本视为有意义有联系的概念集合,利用知识工程方面的部分内容对特征向量做了不同程度的优化,从而相对充分地利用了文本的语义信息。
2.1基于概念的模型基于概念的模型假设文本是由意义相关的概念串联起来的。
与基于词形的方法不同,基于概念的模型研究是文档中概念的分布,其思想是利用知识库构造概念空间,进而从语义层面对文本进行分类。
常用的知识库有WordNet、Cyc、ConceptNet等,其中WordNet 的应用最广泛。
WordNet是美国Princeton大学研发的一个英语词汇语义知识库,或者概念知识库,它是语义学研究最权威的知识库之一。
WordNet中最基本的单位是概念,概念在WordNet里被抽象为一个同义词集合。
因此,WordNet不仅是一部词典,还是一个同义词词林。
本体是知识库的一种重要表现形式。
所谓本体,是指某一领域的概念化描述,包括概念及其关系,在应用中,本体是结构化的概念集<sup>[8]</sup>。
基于词形的分类器其进化过程主要通过增量学习的方式,而基于本体的分类模型除了增量学习的方式外,还可以通过本体进化的方式实现分类器的进化。
文本分类中对知识库的应用主要集中在以下几个方面:①获取分类知识,分类问题中的类别体系是预先确定的,而知识库最基本的组织形式正是分类;②识别同义词,利用词义的等价表达可以简化文本向量空间,而同义词属于知识范畴;③语义消歧,在知识层面利用上下文信息确定多义词的准确概念。
2.2基于主题的模型在主题模型中,主题表示一个概念,其表现形式为一系列相关的单词构成的特征向量。
主题模型是从生成的角度看待文本的,即一篇文档通过一定概率选择某个主题,又在这个主题中以一定概率选择某个词语。
因此,文本词汇矩阵可以表示为文本主题矩阵与主题词汇矩阵的乘积。
主题模型主要分为PLSA(Probabilistic Latent Semantic Analysis)和LDA(Latent Dirichlet Allocation)两种。
2.3基于语法的模型基于主题的模型是以文档为单位的粗粒度的识别,而基于语法的模型则是以句子为单位的细粒度的识别。
它将文档看作一系列含有中心词的句子集合,通过词性标注来识别中心词,因而词性标注与中心词识别是该类算法的核心<sup>[9]</sup>。
3结语分类算法的一般规律是利用训练集的数据特征,在假设空间中找出或者构建出一个模型或假设,使其计算结果尽可能地接近文档的真实分类。
所构建或学习的模型或假设可以用多种形式表示,如分类规则、决策树、数学公式或神经网络。
在文本分类器的实际应用中往往要面对各种各样的数据,比如小语种文本、短文本、海量文本、邮件、文献、html文档等。
这些数据或者特征提取难度大,或者对分类器效率要求高,或者存在语义信息之外的链接和结构信息。
因此,不存在一款通用分类器可以对各种数据都达到很好的分类效果。