用于中文文本分类的基于类别区分词的特征选择方法
- 格式:pdf
- 大小:642.52 KB
- 文档页数:3
文本分类及其特征提取文本分类是指根据文本的内容、主题或语义将文本划分到不同的预定义类别中,是自然语言处理领域的一个重要任务。
文本分类在许多应用中都有着广泛的应用,如垃圾邮件过滤、情感分析、新闻分类、文档归档等。
在进行文本分类任务时,常常需要进行特征提取,提取文本中的关键信息以帮助分类器更好地进行分类。
特征提取是文本分类的关键步骤之一,其目的是将原始的文本数据转化为机器学习算法能够理解和处理的向量表示。
下面将介绍几种常用的文本分类方法及其特征提取方式:1.词袋模型词袋模型是文本分类中最常用的特征表示方法之一、该模型将文本看作是一个由词语组成的无序集合,通过统计文本中每个词语的频率或者权重来表示文本的特征。
常见的词袋模型包括TF-IDF(Term Frequency-Inverse Document Frequency)和词频统计。
- TF-IDF是一个常用的特征表示方法,它考虑了词语在文本中的重要性。
TF(Term Frequency)表示词语在文本中出现的频率,IDF (Inverse Document Frequency)表示词语在整个文本语料库中的重要性。
TF-IDF的值可以通过TF和IDF的乘积来计算。
-词频统计是指直接统计词语在文本中的出现次数。
将文本转化为词频向量后,可以使用机器学习算法(如朴素贝叶斯、支持向量机等)进行分类。
2. Word2VecWord2Vec是一种将词语转化为向量表示的方法,能够将词语的语义信息编码到向量中。
Word2Vec根据词语的上下文关系学习得到词向量空间,通过计算词语之间的距离或者相似性来表示词语的特征。
- CBOW(Continuous Bag-of-Words)模型根据上下文预测中心词,从而学习得到词向量。
- Skip-gram模型则根据中心词预测上下文词,同样可以得到词向量。
Word2Vec的特点是能够很好地捕捉到词语之间的语义关系,例如可以通过词向量的加减法来进行类比推理操作。
文本分类中的特征提取和分类算法综述特征提取和分类算法是文本分类中非常重要的步骤,对于智能化应用和信息检索具有重要的意义。
本文将综述文本分类中常用的特征提取方法和分类算法,并对其优缺点进行分析和比较。
一、特征提取方法特征提取是将文本转化为计算机可识别的特征向量的过程。
下面介绍几种常用的特征提取方法:1. 词袋模型(Bag of Words):词袋模型将文本转换为一个包含词袋(词汇表)中所有单词的向量。
对于每个文档,词袋模型统计每个词在文档中的词频或词重。
这种方法简单有效,但忽略了文本中的语法和顺序信息。
2. N-gram模型:N-gram模型将文本分成N个连续的词组,统计每个词组的出现频率。
该方法考虑了词组的局部关系,能够捕捉文本中的一定的语序信息。
3.TF-IDF:TF-IDF(Term Frequency-Inverse Document Frequency)是一种基于词频和逆文档频率的特征提取方法。
它衡量了一个词在文档中的重要性,高频率出现且在整个语料库中稀有的词被认为具有较高的区分能力。
4.主题模型:主题模型通过对文档进行主题聚类,将文本转化为对应主题的概率分布向量。
主题模型可以提取文本中的语义信息,但参数估计较为困难。
5. Word2Vec:Word2Vec是一种基于神经网络的词嵌入模型,通过学习词的分布式表示。
Word2Vec可以捕捉词之间的语义相似性,提取更加丰富的特征。
二、分类算法分类算法是根据提取的特征向量对文本进行分类。
常用的分类算法包括:1.朴素贝叶斯分类器:朴素贝叶斯分类器基于贝叶斯定理和特征条件独立假设,计算每个类别的概率,并选择概率最大的类别作为分类结果。
朴素贝叶斯分类器简单高效,对于大规模数据集适用。
2.支持向量机:支持向量机通过寻找一个超平面,将不同类别的样本点分开。
它可以处理高维数据,具有较好的泛化性能。
3.决策树:决策树根据特征之间的关系构建一棵树型结构,通过比较特征值进行分类。
文本分类中常用的特征提取方法对比研究在文本分类任务中,特征提取是至关重要的步骤,它决定了分类准确度和效率。
特征提取旨在将文本数据转化为可供机器学习算法使用的数字表示。
下面将介绍几种常用的特征提取方法,并进行对比研究。
1. 词袋模型(Bag of Words,BoW)词袋模型是一种简单而常用的特征提取方法。
它将文本看作是一个无序的词的集合,忽略了词语的顺序和语法结构。
具体来说,词袋模型通过统计每个词在文本中的出现频率构成一个向量表示文本。
这种方法简单直观,易于实现。
然而,它忽略了词语的顺序和语义信息。
2. TF-IDFTF-IDF(Term Frequency-Inverse Document Frequency)是一种常见的特征提取方法,它综合考虑了词语在文本中的出现频率和在语料库中的普遍程度。
TF-IDF首先计算每个词在文本中的出现频率,然后乘以一个逆文档频率,该逆文档频率通过计算语料库中包含该词的文档数目的倒数得到。
这样,TF-IDF能够减少常见词汇的权重,强调仅在特定文本中出现的重要词汇。
TF-IDF能够较好地捕捉词语的重要性,它具有保留词语顺序的优点。
3. Word2VecWord2Vec是一种基于神经网络的词嵌入(Word Embedding)方法。
它通过训练一个神经网络,将每个词语映射到一个低维的实数向量空间中,这样相似的词语在向量空间中距离也会比较接近。
Word2Vec能够从大量的文本语料中学习到词语之间的语义关系,能够很好地捕捉语义信息。
但相比于前两种方法,Word2Vec的训练时间较长,且需要足够大的语料库。
4. 特征哈希特征哈希是一种将文本特征映射到固定维度的稀疏向量的方法。
它通过利用哈希函数将文本中不同的词语映射到同一维度上。
这样,所有的文本经过特征哈希处理后都具有相同的维度,方便了后续的特征表示和分类。
特征哈希可以简化特征处理过程,减少存储空间和计算复杂度。
然而,由于多个词语可能映射到同一维度上,可能会产生冲突,导致信息丢失。
文本分类中的特征选择方法分析在文本分类中,选择有效的特征对分类器的性能起着至关重要的作用。
不同的特征选择方法结合不同的算法、模型,对于文本分类的效果会有显著的提升。
在本文中,我们将分析几种常见的文本分类特征选择方法,并探讨它们的优缺点。
一、过滤式特征选择方法过滤式特征选择方法是将特征选择过程与分类器训练过程分离的选择方式。
该方法主要包括如下的步骤:1. 通过某种统计方法计算每个特征的得分,例如:基于卡方检验、互信息、卡方统计量等方法;2. 设定特征阈值,例如:选择得分前n个或者设置得分阈值,以过滤掉得分较低的特征;3. 根据剩余的特征进行数据预处理或者直接训练分类器。
该方法实现简单、计算速度快、可适用于大规模文本分类。
缺点是没有考虑到分类器本身学习的能力,除非分布特征明显起伏,否则效果可能不如包含特征选择的算法。
二、包裹式特征选择方法包裹式特征选择方法是将文本分类和特征选择过程合并成一个统一的过程,与分类器训练算法紧密结合。
该方法主要包括如下的步骤:1. 选择一个分类算法,例如:支持向量机(SVM)、朴素贝叶斯(NB)等;2. 选定一组初始特征,例如:全部的特征、随机特征,或者是按某种规则从初始特征集合中挑选出的特征;3. 利用选定的特征进行分类器训练;4. 根据分类器的性能评估指标,例如:准确率、召回率等,更新特征集合;5. 重复步骤3-4,直到达到指定的特征数或者分类器性能指标的最优状态。
该方法效果很好,但是需要消耗大量的计算资源,并且很难确定最优的特征数目,求解时间长。
三、嵌入式特征选择方法嵌入式特征选择方法是将特征选择过程嵌入到分类器训练过程中的方法。
该方法主要包括如下的步骤:1. 选择一个分类算法,例如:逻辑回归(LR)、负二次对数函数(NLL)等;2. 选定一组初始特征,例如:全部的特征、随机特征,或者是按某种规则从初始特征集合中挑选出的特征;3. 利用特征选择算法对初始特征进行降维处理,生成新的特征向量;4. 将新的特征向量用于训练分类器;5. 根据分类器的性能评估指标,例如:准确率、召回率等,更新特征集合。
文本分类特征选择方法在文本分类任务中,特征选择是一个关键的步骤,它能够帮助我们从原始文本数据中提取出最具有代表性和区分性的特征,从而提高分类模型的性能和效果。
本文将介绍几种常见的文本分类特征选择方法。
词频特征是最常见的文本特征表示,它表示每个词在文本中出现的频率。
在文本分类中,可以使用词频特征选择方法来选择最具有区分性的特征词,常见的方法有:1. 互信息(Mutual Information)互信息是用来衡量两个随机变量之间的相关性的度量。
在文本分类中,互信息可以用来衡量一个词和分类之间的相关性。
相关性越高,互信息值越大,表示该词对分类起到了更大的区分作用。
因此,可以根据互信息值来选择最具有代表性和区分性的特征词。
2. 卡方检验(Chi-Square Test)卡方检验是用来检测两个分类变量之间的独立性的统计方法。
在文本分类中,可以使用卡方检验来衡量一个词和分类之间的独立性。
如果一个词在一些分类中出现的频率远高于其他分类,那么该词对于该分类就有更强的区分能力,可以选择作为特征词。
3. 信息增益(Information Gain)信息增益是一种用来衡量特征对于分类任务的重要性的指标。
在文本分类中,信息增益可以用来衡量一个词在整个文本集合中的分布情况和在一些特定分类中的分布情况之间的差异。
信息增益越大,表示该词对于分类起到了更大的区分作用。
除了词频特征之外,文档频率也是一种常用的文本特征表示方法。
文档频率表示一个词在多少个不同的文本中出现过,可以用来衡量一个词的普遍性和独特性。
在文本分类中,可以使用文档频率特征选择方法来选择最具有代表性和区分性的特征词,常见的方法有:1. 逆文档频率(Inverse Document Frequency)逆文档频率是一种用来衡量一个词的独特性和代表性的指标。
逆文档频率越高,表示该词在文本中的普遍性越低,具有更强的区分能力。
因此,可以根据逆文档频率来选择最具有代表性和区分性的特征词。
使用AI技术进行文本分类的要点一、引言在信息爆炸的时代,人们面临着大量的文本数据,为了更好地理解和处理这些数据,文本分类成为了一个重要的任务。
AI技术的出现给文本分类带来了全新的方法和工具。
本文将讨论使用AI技术进行文本分类的要点,包括特征选择、模型选择、语料库构建以及评估指标等方面。
二、特征选择特征选择是文本分类中至关重要的一步。
良好的特征可以提取出数据中蕴含的有用信息,从而有效区分不同类别。
以下是几种常用的特征选择方法:1. 词袋模型:将文本转化为词语频率向量,统计各个词语在每个类别中出现的频率,并根据频率来判断词语对分类结果贡献度大小。
2. TF-IDF:考虑到某些常见词可能在多个类别中都经常出现,而对于分类无太多帮助,TF-IDF通过考虑某个词在当前类别以及其他类别中出现情况来分配一个权重,在计算特征向量时加入这个权重。
3. 主题模型:通过LDA(Latent Dirichlet Allocation)等方法发现文本中的主题,并将主题作为特征。
这可以帮助识别出文本的潜在语义信息。
三、模型选择选择合适的模型是实现高效文本分类的关键。
以下是几种常用的模型:1. 朴素贝叶斯分类器:该分类器基于贝叶斯定理和特征间条件独立性假设,具有快速且可扩展的优点。
它在训练数据较大时表现良好。
2. 支持向量机(SVM):SVM根据两个类别之间最大分割边界来进行分类,它适用于具有线性或非线性边界的问题,并且可以通过核函数来处理高维数据。
3. 深度学习模型:如卷积神经网络(CNN)和递归神经网络(RNN),这些模型利用多层次神经元结构,能够从大规模数据中学习复杂的特征表示,对于处理自然语言任务非常有效。
四、语料库构建构建合适的语料库对于训练一个鲁棒且高效的文本分类模型至关重要。
以下是几种常见的语料库构建方法:1. 自动标注法:通过利用已有标记好类别的数据,使用机器学习算法或者规则来自动进行标记,从而快速拓展语料库。
基于特征选择的文本分类方法研究一、概览随着互联网的飞速发展,大量的文本信息涌入我们的视野,如何从这些繁杂的信息中提取出有价值的知识成为了摆在我们面前的一道难题。
而文本分类作为信息检索领域的一个重要研究方向,旨在通过对文本进行自动分类,帮助用户快速找到自己感兴趣的信息。
近年来基于特征选择的文本分类方法受到越来越多研究者的关注,因为它能够在保证分类准确率的同时,降低模型的复杂度,提高计算效率。
本文将围绕基于特征选择的文本分类方法展开研究,探讨如何在实际应用中发挥其优势,为用户提供更加精准、高效的信息服务。
A. 研究背景和意义从读者的角度出发,考虑他们对文本分类方法的了解程度。
如果读者没有相关的背景知识,那么需要在文章开头提供一些简单的介绍,以便他们能够理解后续的内容。
在介绍文本分类方法时,可以使用一些通俗易懂的例子来帮助读者更好地理解。
例如可以提到电子邮件过滤器是如何根据主题来分类邮件的。
在介绍特征选择时,可以提到它在文本分类中的重要性。
特征选择可以帮助我们从大量的特征中选择出最有用的特征,从而提高分类器的准确性。
可以提到目前存在的一些问题和挑战,例如如何处理大规模数据、如何处理低质量数据等。
这些问题和挑战可以激发读者的兴趣,并促使他们进一步阅读文章。
B. 国内外研究现状随着人工智能技术的飞速发展,文本分类方法在各个领域得到了广泛的应用。
从国外的研究现状来看,早在20世纪90年代,文本分类技术就已经引起了研究者的关注。
美国斯坦福大学的Pereira等人提出了基于N元模型的文本分类方法,该方法在情感分析、主题分类等领域取得了显著的成果。
使得文本分类性能得到了大幅提升。
近年来随着预训练模型的兴起,如BERT、RoBERTa等,文本分类任务的性能再次得到了突破性的提高。
在国内文本分类研究也取得了丰硕的成果,清华大学的刘知远等人提出了一种基于条件随机场(CRF)的文本分类方法,该方法在命名实体识别、情感分析等领域取得了较好的效果。
文本分类中的特征选择方法评估比较特征选择是文本分类中的一个重要步骤,它对于改善分类模型的性能和降低计算成本具有关键作用。
在文本分类领域,有许多不同的特征选择方法可供选择。
本文将评估和比较几种常用的特征选择方法,以帮助研究者和从业者选择适合自己任务的方法。
1. 互信息(MI):互信息是一种常用的特征选择方法,它用来度量特征与类别之间的相关性。
互信息越大,表示特征与类别之间的相关性越强。
互信息具有简单直观的计算方式,但它没有考虑特征与其他特征之间的相关性。
2. 卡方检验(CHI):卡方检验也是一种常见的特征选择方法,它用来度量特征与类别之间的独立性。
卡方值越大,表示特征与类别之间的独立性越低,即特征更有用。
卡方检验能够考虑特征与其他特征之间的相关性,但它对特征出现次数较少的情况较为敏感。
3. 信息增益(IG):信息增益是一种基于信息熵的特征选择方法,它用来度量特征对类别的分类能力。
信息增益越大,表示特征对类别的分类能力越强。
信息增益能够有效地考虑特征与类别之间的相关性,但它对特征的取值个数较敏感。
4. 方差选择(VAR):方差选择是一种基于方差的特征选择方法,它用来度量特征在样本集中的变化程度。
方差越大,表示特征的取值在样本集中的变化越大,即特征更有用。
方差选择方法简单易用,但它忽略了特征与类别之间的相关性。
以上是几种常用的特征选择方法,它们各自有着不同的特点和适用场景。
在实际应用中,我们需要根据任务的具体需求和数据的特点选择合适的特征选择方法。
对于互信息、卡方检验和信息增益这三种方法,它们都可以用于评估特征与类别之间的相关性。
在使用这些方法时,我们需要注意特征与类别之间的关联关系。
如果特征与类别之间的关联关系较强,那么这些方法会给出较高的评估分数,反之则会给出较低的评估分数。
因此,在选择特征选择方法时,我们需要综合考虑特征与类别之间的相关性以及任务的具体需求。
方差选择方法适用于对特征的变异程度较为敏感的任务。
文本特征提取以及分类结果分析文本特征提取是文本挖掘领域的重要任务,通过对文本中的特征进行提取和表示,能够实现对文本的分类、聚类、情感分析等任务。
本文将介绍文本特征提取的常见方法,并利用这些特征进行文本分类,并对分类结果进行分析。
一、文本特征提取方法1.词袋模型(Bag of Words)词袋模型是文本特征提取的基本方法,它将一篇文本表示为一个词频向量。
首先对文本进行分词处理,然后统计每个词在文本中出现的频率,最后将每个词的频率作为特征,构成一个向量。
2.TF-IDFTF-IDF(Term Frequency-Inverse Document Frequency)是一种常用的文本特征提取方法,对于每个词,它结合了在文本中出现的频率和在整个语料库中出现的频率。
TF(词频)表示词在文本中的频率,而IDF (逆文档频率)表示词在整个语料库中的频率。
TF-IDF的计算公式为:TF-IDF = TF * log(N / IDF),其中N表示语料库中的文档数。
3. Word2VecWord2Vec是一种通过训练神经网络从文本中学习词的向量表示的方法。
它能够将每个词映射到一个固定维度的实数向量,使得具有相似语义的词在向量空间中距离较近。
Word2Vec的训练方法有两种:CBOW (Continuous Bag of Words)和Skip-gram。
4. GloVeGloVe(Global Vectors for Word Representation)是一种利用全局语料统计信息来进行词向量训练的方法。
与Word2Vec类似,GloVe也能够将词转化为固定维度的实数向量,但是在计算上更加高效。
二、文本分类1.特征表示上述介绍的文本特征提取方法可以用于构建文本的特征表示。
通过选择合适的特征提取方法,可以有效地提取文本中的关键信息,帮助模型区分不同的类别。
2.模型训练常见的文本分类方法有朴素贝叶斯、支持向量机(SVM)、随机森林、神经网络等。
决策树(CART算法)针对中文文本分类决策树是一种常用的机器学习算法,可以用于中文文本的分类任务。
CART(Classification and Regression Tree)算法是决策树的一种实现方式,在中文文本分类中也可以应用。
中文文本分类是指根据给定的中文文本内容,将其自动划分到预定义的不同类别中。
例如,将新闻文本分类到体育、娱乐、科技等不同领域的类别中。
中文文本分类在信息检索、情感分析、舆情监测等领域有着广泛的应用。
CART算法是由Breiman等人在1984年提出,是一种递归分割数据的二叉树算法。
它基于贪婪算法,通过递归的方式将数据集划分成两个子集。
每次划分时,算法选择一个最佳的特征和阈值,将数据根据该特征和阈值分割为左右两个子集。
然后,针对每个子集,继续进行递归划分,直到满足停止条件。
在中文文本分类中,决策树的特征可以是文本中的关键词、词频等信息。
特征选择是决策树算法的关键步骤之一,常用的特征选择方法有信息增益、信息增益比、基尼指数等。
这些方法可以度量特征对分类结果的贡献程度,选择对分类结果影响最大的特征进行划分。
决策树的划分过程可以形成一棵树状结构,每个内部节点代表一个特征及其阈值,每个叶子节点代表一个类别。
对于一个给定的中文文本,通过从根节点开始,按照每个内部节点的特征和阈值对文本进行判断,最终到达一个叶子节点,得到文本的分类结果。
决策树的优点是易于理解和解释,可以生成可解释性强的规则。
此外,决策树可以处理多类别的分类任务,并且对于文本分类来说,效果通常较好。
然而,决策树也存在一些限制,如容易过拟合和对输入数据分布敏感等问题。
因此,在应用决策树进行中文文本分类时,需要注意适当的预处理和参数设置,以避免这些问题。
总而言之,CART算法是决策树分类的一种常用实现方式,在中文文本分类中有着广泛的应用。
通过选择合适的特征和阈值,决策树可以将中文文本自动划分到不同的类别中。
虽然决策树在处理中文文本分类问题上具有优势,但仍需结合实际应用需求和数据特点来进行合理选择和调整。
文本分类的6类方法
文本分类在自然语言处理领域中是一个十分重要的任务,它可以用于垃圾邮件过滤、情感分析、话题分类等。
对于不同的文本分类任务,应该选择合适的方法。
本文将介绍文本分类的6类方法: 1. 基于规则的方法:这种方法是最简单的文本分类方法,通过人工设定一系列规则来进行文本分类,例如根据关键词出现次数、文本长度等特征来判断文本类别。
2. 朴素贝叶斯分类器:朴素贝叶斯是一种基于概率的分类方法,它利用贝叶斯公式计算文本属于某一类别的概率,并选择概率最大的类别作为文本的分类结果。
它的优点是训练速度快,适用于大规模文本分类。
3. 支持向量机分类器:支持向量机是一种基于最大间隔的分类方法,它通过将文本映射到高维空间来找到最优的分类超平面。
它的优点是分类效果好,适用于复杂的非线性分类问题。
4. 决策树分类器:决策树是一种基于特征选择的分类方法,它通过对文本特征进行分裂来构建树形结构,最终选择最优的分类结果。
它的优点是可解释性好,易于理解和调整。
5. 深度学习分类器:深度学习是一种基于神经网络的分类方法,它通过多层非线性变换来提取文本特征,并使用softmax函数将文本映射到类别空间。
它的优点是能够自动提取特征,适用于复杂的文本分类问题。
6. 集成学习方法:集成学习是一种将多个分类器组合起来进行
文本分类的方法,它通过投票、加权平均等方式来获得更好的分类性能。
它的优点是能够充分利用不同分类器之间的差异,提高分类准确率。
计算机工程应用技术本栏目责任编辑:梁书中文文本分类概述栗征征(长江大学计算机科学学院,湖北荆州434023)摘要:在大数据时代,随着网络上的文本数据日益增长,文本分类技术显得越来越重要,是文本挖掘领域的热点问题,具有广阔的应用场景。
文本分类方法的研究开始于20世纪50年代,一直受到人们的广泛关注。
该文从文本分类的流程出发,简要介绍文本分类的一般流程以及每一步骤中涉及的主要技术。
主要包括预处理部分的分词、去停词和文本表示方法、特征降维和分类算法,分析了各种方法的优缺点并总结。
关键词:文本分类;预处理;特征降维;分类算法中图分类号:TP3文献标识码:A文章编号:1009-3044(2021)01-0229-02开放科学(资源服务)标识码(OSID ):1文本分类简介概念:文本分类是自然语言处理中的重要学科,其目的是在已知的分类中,根据给定文本内容自动确定其所属文本类别的过程。
数学定义:假设给定文档集合D ={d 1,d 2,d 3,d 4...d k }类别集合C ={c 1,c 2,c 3,c 4...c m }其中d i 与c j 表示文档集合中第i 篇文档和类别集合中第j 个类别。
k 、m 为总文档总数和总类别数。
文档集合和类别集合有下列的映射关系:f :D ×C →R ,R ∈{0,1}文本分类可分两个阶段:训练与测试,每个阶段又涉及预处理、特征降维、训练分类器三个步骤。
预处理包括分词、去停词、文本表示等;特征降维主要用到的方法有词频-逆文档频率(tf-idf )、卡方统计等;目前主流的分类器包括:支持向量机(SVM )、朴素贝叶斯(NB )、K 近邻等[1]。
如图1所示。
图1文本分类流程预处理:将文本数据转换为计算机可处理形式。
特征选择:由于文本内容复杂,难以用简单的方法表示,一般情况下文本的特征会达到很高的维度,特征选择可以降低维度从而使运算速度和准确率得到提高。
分类器:对分类器进行训练。
中文多类别情感分类模型中特征选择方法
游凤芹;钟芳;周展
【期刊名称】《计算机应用》
【年(卷),期】2016(036)0z2
【摘要】商品评论信息的情感分析,可作为人们推荐商品和选择商品的一个重要手段.特征选择在情感分类中能够删除一些不必要的候选特征,从而提高分类效率、减小误差.为了考察中文语言和多类别情感分类环境下特征选择方法的效果,为情感分析多分类研究选取合适的特征选择方法,对特征选择进行了对比研究.在朴素贝叶斯多类分类器中,对中文描述的关于手机的五种星级评论数据集进行情感分类,选取文档频率、信息增益、互信息和卡方统计四种常用特征选择方式进行了对比实验和分析.实验结果表明,信息增益能够在特征维数特别小的情况下获得很好的性能,卡方统计能够获得普遍较好的性能,文档频率因为计算简单也能成为一种不错的选择,而互信息通常情况下不是一个好的选择.
【总页数】5页(P242-246)
【作者】游凤芹;钟芳;周展
【作者单位】中国电子科技集团公司第二十八研究所,南京210007;东南大学计算机科学与工程学院,南京211189;中国电子科技集团公司第二十八研究所,南京210007
【正文语种】中文
【中图分类】TP391.1
【相关文献】
1.文本分类中基于类别概念的特征选择方法 [J], 杨奋强;刘玉贵
2.用于中文文本分类的基于类别区分词的特征选择方法 [J], 周奇年;张振浩;徐登彩
3.不平衡情感分类中的特征选择方法研究 [J], 王志昊;王中卿;李寿山;李培峰
4.一种融合上下文特征的中文隐式情感分类模型 [J], 潘东行; 袁景凌; 李琳; 盛德明
5.基于时序和上下文特征的中文隐式情感分类模型 [J], 袁景凌;丁远远;潘东行;李琳
因版权原因,仅展示原文概要,查看原文内容请购买。