数据挖掘课程实验最终报告
- 格式:docx
- 大小:443.58 KB
- 文档页数:5
一、实验背景随着信息技术的飞速发展,数据挖掘技术在各个领域得到了广泛应用。
然而,数据挖掘过程中涉及的大量个人信息和敏感数据,使得数据挖掘的安全和隐私问题日益突出。
为了提高数据挖掘的安全性,本实验针对数据挖掘过程中的安全风险进行了深入研究,并提出了相应的解决方案。
二、实验目的1. 分析数据挖掘过程中的安全风险;2. 设计数据挖掘安全实验方案;3. 验证实验方案的有效性;4. 提出提高数据挖掘安全性的建议。
三、实验方法1. 文献调研:通过查阅相关文献,了解数据挖掘安全领域的最新研究成果,为实验提供理论基础;2. 实验设计:根据文献调研结果,设计数据挖掘安全实验方案,包括实验环境、实验数据、实验方法等;3. 实验实施:在实验环境中,按照实验方案进行数据挖掘实验,并记录实验数据;4. 数据分析:对实验数据进行分析,评估实验方案的有效性;5. 结果总结:根据实验结果,提出提高数据挖掘安全性的建议。
四、实验内容1. 数据挖掘安全风险分析(1)数据泄露:数据挖掘过程中,未经授权的访问、篡改或泄露个人信息和敏感数据;(2)数据篡改:攻击者通过篡改数据,影响数据挖掘结果的准确性;(3)隐私侵犯:数据挖掘过程中,收集、存储、处理个人隐私信息时,可能侵犯个人隐私;(4)数据质量:数据挖掘过程中,数据质量低下可能导致挖掘结果不准确。
2. 数据挖掘安全实验方案(1)实验环境:搭建一个数据挖掘实验平台,包括数据源、数据挖掘工具、安全防护设备等;(2)实验数据:选取具有代表性的数据集,包括个人隐私信息、敏感数据等;(3)实验方法:采用数据加密、访问控制、数据脱敏等技术,提高数据挖掘安全性。
3. 实验实施(1)数据加密:对实验数据进行加密处理,确保数据在传输和存储过程中的安全性;(2)访问控制:设置访问权限,限制未经授权的访问;(3)数据脱敏:对个人隐私信息进行脱敏处理,降低隐私泄露风险;(4)数据质量检查:对实验数据进行质量检查,确保数据挖掘结果的准确性。
数据挖掘实验报告一、引言。
数据挖掘作为一种从大量数据中发现隐藏模式和信息的技术,已经被广泛应用于各个领域。
本实验旨在通过对给定数据集的分析和挖掘,探索其中潜在的规律和价值信息,为实际问题的决策提供支持和参考。
二、数据集描述。
本次实验使用的数据集包含了某电商平台上用户的购物记录,其中包括了用户的基本信息、购买商品的种类和数量、购买时间等多个维度的数据。
数据集共包括了10000条记录,涵盖了近一年的购物数据。
三、数据预处理。
在进行数据挖掘之前,我们首先对数据进行了预处理。
具体包括了数据清洗、缺失值处理、异常值处理等步骤。
通过对数据的清洗和处理,保证了后续挖掘分析的准确性和可靠性。
四、数据分析与挖掘。
1. 用户购买行为分析。
我们首先对用户的购买行为进行了分析,包括了用户购买的商品种类偏好、购买频次、购买金额分布等。
通过对用户购买行为的分析,我们发现了用户的购买偏好和消费习惯,为电商平台的商品推荐和营销策略提供了参考。
2. 商品关联规则挖掘。
通过关联规则挖掘,我们发现了一些商品之间的潜在关联关系。
例如,购买商品A的用户80%也会购买商品B,这为商品的搭配推荐和促销活动提供了依据。
3. 用户价值分析。
基于用户的购买金额、购买频次等指标,我们对用户的价值进行了分析和挖掘。
通过对用户价值的评估,可以针对不同价值的用户采取个性化的营销策略,提高用户忠诚度和购买转化率。
五、实验结果。
通过对数据的分析和挖掘,我们得到了一些有价值的实验结果和结论。
例如,发现了用户的购买偏好和消费习惯,发现了商品之间的关联规则,发现了用户的不同价值等。
这些结论为电商平台的运营和管理提供了一定的参考和决策支持。
六、结论与展望。
通过本次实验,我们对数据挖掘技术有了更深入的理解和应用。
同时,也发现了一些问题和不足,例如数据质量对挖掘结果的影响,挖掘算法的选择和优化等。
未来,我们将继续深入研究数据挖掘技术,不断提升数据挖掘的准确性和效率,为更多实际问题的决策提供更有力的支持。
第1篇一、实验概述本次数据挖掘实验以Apriori算法为核心,通过对GutenBerg和DBLP两个数据集进行关联规则挖掘,旨在探讨数据挖掘技术在知识发现中的应用。
实验过程中,我们遵循数据挖掘的一般流程,包括数据预处理、关联规则挖掘、结果分析和可视化等步骤。
二、实验结果分析1. 数据预处理在实验开始之前,我们对GutenBerg和DBLP数据集进行了预处理,包括数据清洗、数据集成和数据变换等。
通过对数据集的分析,我们发现了以下问题:(1)数据缺失:部分数据集存在缺失值,需要通过插补或删除缺失数据的方法进行处理。
(2)数据不一致:数据集中存在不同格式的数据,需要进行统一处理。
(3)数据噪声:数据集中存在一些异常值,需要通过滤波或聚类等方法进行处理。
2. 关联规则挖掘在数据预处理完成后,我们使用Apriori算法对数据集进行关联规则挖掘。
实验中,我们设置了不同的最小支持度和最小置信度阈值,以挖掘出不同粒度的关联规则。
以下是实验结果分析:(1)GutenBerg数据集在GutenBerg数据集中,我们以句子为篮子粒度,挖掘了林肯演讲集的关联规则。
通过分析挖掘结果,我们发现:- 单词“the”和“of”在句子中频繁出现,表明这两个词在林肯演讲中具有较高的出现频率。
- “and”和“to”等连接词也具有较高的出现频率,说明林肯演讲中句子结构较为复杂。
- 部分单词组合具有较高的置信度,如“war”和“soldier”,表明在林肯演讲中提到“war”时,很可能同时提到“soldier”。
(2)DBLP数据集在DBLP数据集中,我们以作者为单位,挖掘了作者之间的合作关系。
实验结果表明:- 部分作者之间存在较强的合作关系,如同一研究领域内的作者。
- 部分作者在多个研究领域均有合作关系,表明他们在不同领域具有一定的学术影响力。
3. 结果分析和可视化为了更好地展示实验结果,我们对挖掘出的关联规则进行了可视化处理。
通过可视化,我们可以直观地看出以下信息:(1)频繁项集的分布情况:通过柱状图展示频繁项集的分布情况,便于分析不同项集的出现频率。
数据挖掘实验报告(二)关联规则挖掘**: ***班级: 计算机1304学号: **********一、实验目的1. 1.掌握关联规则挖掘的Apriori算法;2.将Apriori算法用具体的编程语言实现。
二、实验设备PC一台, dev-c++5.11三、实验内容根据下列的Apriori算法进行编程:四、实验步骤1.编制程序。
2.调试程序。
可采用下面的数据库D作为原始数据调试程序, 得到的候选1项集、2项集、3项集分别为C1.C2.C3, 得到的频繁1项集、2项集、3项集分别为L1.L2.L3。
代码#include <stdio.h>#include<string.h>#define D 4 //事务的个数#define MinSupCount 2 //最小事务支持度数void main(){char a[4][5]={{'A','C','D'},{'B','C','E'},{'A','B','C','E'},{'B','E'}};charb[20],d[100],t,b2[100][10],b21[100 ][10];inti,j,k,x=0,flag=1,c[20]={0},x1=0,i1 =0,j1,counter=0,c1[100]={0},flag1= 1,j2,u=0,c2[100]={0},n[20],v=1;int count[100],temp;for(i=0;i<D;i++){for(j=0;a[i][j]!='\0';j++) {//用来判断之前保存的是否和a[i][j]一样, 不一样就保存, 一样就不保存for(k=0;k<x;k++){if(b[k]!=a[i][j]) ; else{flag=0;break;}}//用来判断是否相等 if(flag==1){b[x]=a[i][j];x++;}else flag=1;}}//计算筛选出的元素的支持度计数for(i=0;i<D;i++){for(j=0;a[i][j]!='\0';j++) {for(k=0;k<x;k++){if(a[i][j]==b[k]) {c[k]++;break; }}}}//对选出的项集进行筛选, 选出支持度计数大于等于2的, 并且保存到d[x1]数组中for(k=0;k<x;k++){if(c[k]>=MinSupCount){d[x1]=b[k];count[x1]=c[k];x1++;}}//对选出的项集中的元素进行排序for(i=0;i<x1-1;i++){for(j=0;j<x1-i-1;j++){if(d[j]>d[j+1]){t=d[j];d[j]=d[j+1];d[j+1]=t;temp=count[j];count[j]=count[j+1];count[j+1]=temp;}}}//打印出L1printf("L1 elements are:\n");for(i=0;i<x1;i++){printf("{%c} = %d \n",d[i],count[i]);}//计算每一行的元素个数, 并且保存到n[]数组中for(i=0;i<D;i++){for(j=0;a[i][j]!='\0';j++);n[i]=j;}//对a[][]数组的每一行进行排序for(i=0;i<D;i++){for(j=0;j<n[i]-1;j++){for(k=0;k<n[i]-j-1;k++) {if(a[i][k]>a[i][k+1]){t=a[i][k];a[i][k]=a[i][k+1]; a[i][k+1]=t;}}}}//把L1中的每一个元素都放在b2[i][0]中j1=x1;for(i=0;i<j1;i++){b2[i][0]=d[i];}//把L1中的元素进行组合, K=2开始, 表示x1个元素选K个元素的组合for(k=2;b2[0][0]!='\0';k++){ //u是用来计数组合总数的u=0;v=1;//v 是用来在进行输出各种组合的标识数 v=1 说明正在进行输出 for(i=0;i<100;i++){c2[i]=0;}for(i=0;i<j1;i++){for(i1=i+1;i1<j1;i1++) {for(j=0;j<k-2;j++) {if(b2[i][j]!=b2[i1][j]){flag1=0;break;}}//进行组合的部分if(flag1==1&&b2[i][k-2]!=b2[i1][k-2]){for(j2=0;j2<k-1;j2++){b21[u][j2]=b2[i][j2];}b21[u][k-1]=b2[i1][k-2];u++;}flag1=1;}}counter=0;for(i=0;i<D;i++) //a数组有5行元素{for(i1=0;i1<u;i1++) // 代表x1个元素选K个元素的所有组合总数 {for(j1=0;j1<k;j1++) //K 代表一个组合中的元素个数{for(j=0;a[i][j]!='\0';j++) //逐个比较每一行的元素{if(a[i][j]==b21[i1][j1])counter++;}}if(counter==k)c2[i1]++; //把每种组合数记录在c2数组中counter=0;} }j1=0;temp=0;//这里的temp 是用来分行//对u种情况进行选择, 选出支持度计数大于2的*/for(i=0;i<u;i++){if(c2[i]>=MinSupCount) {if(v==1){printf("L%d elements are:\n",k);v=0;}printf("{");for(j=0;j<k;j++)//输出每种组合k 个元素{b2[j1][j]=b21[i][j];printf("%c,",b2[j1][j]);}j1++;printf("\b}");printf(" = %d \n",c2[i]);temp++;}}b2[j1][0]='\0';}}五、结果截图。
数据挖掘实验报告数据挖掘是一门涉及发现、提取和分析大量数据的技术和过程,它可以揭示出隐藏在数据背后的模式、关系和趋势,对决策和预测具有重要的价值。
本文将介绍我在数据挖掘实验中的一些主要收获和心得体会。
实验一:数据预处理在数据挖掘的整个过程中,最重要的一环就是数据预处理。
数据预处理包括数据清洗、数据集成、数据转换和数据规约等步骤,目的是为了提高数据的质量和可用性。
首先,我对所使用的数据集进行了初步的观察和探索。
发现数据集中存在着一些缺失值和异常值。
为此,我使用了一些常见的缺失值处理方法,如均值替代、中值替代和删除等。
对于异常值,我采用了离群值检测和修正等方法,使得数据在后续的分析过程中更加真实可信。
其次,我进行了数据集成的工作。
数据集合并是为了整合多个来源的数据,从而得到更全面和综合的信息。
在这个过程中,我需要考虑数据的一致性和冗余情况。
通过采用数据压缩和去重等技术,我成功地完成了数据集成的工作。
接着,我进行了数据转换的处理。
数据转换是为了将原始的数据转换成适合数据挖掘算法处理的形式。
在这个实验中,我采用了数据标准化和归一化等方法,使得不同属性之间具备了可比性和可计算性,从而便于后续的分析过程。
最后,我进行了数据规约的操作。
数据规约的目的在于减少数据的维数和复杂度,以提高数据挖掘的效果。
在这个阶段,我采用了主成分分析和属性筛选等方法,通过压缩数据集的维度和减少冗余属性,成功地简化了数据结构,提高了挖掘效率。
实验二:关联规则挖掘关联规则挖掘是数据挖掘中常用的一种方法,它用于发现数据集中项集之间的关联关系。
在这个实验中,我使用了Apriori算法来进行关联规则的挖掘。
首先,我对数据进行了预处理,包括数据清洗和转换。
然后,我选择了适当的最小支持度和最小置信度阈值,通过对数据集的扫描和频繁项集生成,找出了数据集中的频繁项集。
接着,我使用了关联规则挖掘算法,从频繁项集中挖掘出了具有一定置信度的关联规则。
在实验过程中,我发现挖掘出的关联规则具有一定的实用性和可行性。
数据挖掘6个实验实验报告中南民族⼤学计算机科学学院《数据挖掘与知识发现》综合实验报告姓名年级专业软件⼯程指导教师学号序号实验类型综合型2016年12 ⽉10 ⽇⼀、使⽤Weka建⽴决策树模型1、准备数据:在记事本程序中编制ColdType-training.arff,ColdType-test.arff。
2、加载和预处理数据。
3、建⽴分类模型。
(选择C4.5决策树算法)4、分类未知实例⼆、使⽤Weka进⾏聚类1、准备数据:使⽤ColdType.csv⽂件作为数据集。
2、加载和预处理数据。
3、聚类(⽤简单K -均值算法)4、解释和评估聚类结果三、完成感冒类型的相关操作及相应处理结果1.加载了ColdType-training.arff⽂件后的Weka Explorer界⾯:2.感冒类型诊断分类模型输出结果:Sore-throat = Yes| Cooling-effect = Good: Viral (2.0)4.感冒类型诊断聚类结果:Cluster centroids:Cluster#Attribute Full Data 0 1(10) (5) (5) ================================================= Increased-lym Yes Yes No Leukocytosis Yes No Yes Fever Yes Yes Yes Acute-onset Yes Yes No Sore-throat Yes No Yes Cooling-effect Good Good Notgood Group Yes Yes NoTime taken to build model (full training data) : 0 seconds=== Model and evaluation on training set ===Clustered Instances0 5 ( 50%)1 5 ( 50%)Class attribute: Cold-typeClasses to Clusters:0 1 <-- assigned to cluster5 1 | Viral0 4 | BacterialCluster 0 <-- ViralCluster 1 <-- BacterialIncorrectly clustered instances : 1.010 %分析:由诊断聚类结果图可知,聚类中有两个簇Cluster0和Cluster1,分别对应Viral类和Bacterial类,但有⼀个实例被聚类到错误的簇,聚类错误率为10%。
数据挖掘实验报告近年来,数据挖掘技术在各个领域得到了广泛的应用和发展。
作为一种从大量数据中自动或半自动地获取信息的技术手段,数据挖掘已经成为了解决复杂问题的重要工具。
本文就进行的一次数据挖掘实验进行介绍。
一、实验介绍本次实验使用的数据集是某电商平台的用户购买记录。
数据集中主要记录了用户的购买行为,包括商品名称、价格、购买时间、购买数量等。
本次实验旨在对用户购买行为进行分析,以发现用户的消费特点和购物习惯。
二、数据预处理在进行数据挖掘前,首先需要对原始数据进行处理。
本次实验对数据进行了以下处理:1. 数据清洗:去掉重复记录、缺失数据和异常值。
2. 数据转换:将数据转化为适合挖掘的形式,即去除无关数据和重要性较低的数据,并将数据标准化。
3. 数据集成:将多个数据源中的数据集成到一起,以便进行挖掘。
三、数据分析在进行数据分析时,首先需要选择适合的算法对数据进行分析。
本次实验使用了关联规则分析算法和聚类分析算法。
这两个算法对数据进行分析后,可以提取出不同方面的数据,以发现用户的消费特点和购物习惯。
1. 关联规则分析关联规则分析算法是一种从大规模数据中发现如果一个事件出现,另一个事件也经常出现的规则的方法。
本次实验中,通过关联规则分析找出购买某一件商品时,可能会购买的其他商品。
通过分析不同商品之间的关联,可以发现用户的消费行为和购物习惯。
2. 聚类分析聚类分析算法是一种将数据集划分为多个类别的方法,使得每个类别内数据的相似度高于类别间的相似度。
本次实验中,通过聚类分析将用户划分为不同的群组,以进一步发现用户的消费特点和购物习惯。
四、实验结论基于本次实验的数据挖掘分析,得到了以下结论:1. 用户的消费行为和购物习惯对其购买行为有重要影响,需通过分析消费行为和购物习惯来预测和推荐用户购买商品。
2. 不同商品之间具有一定的关联性,可以通过对商品之间的关联进行分析,来推广和营销相关商品。
3. 用户的购买行为和个人特性的关联值得深入研究,可以提供更加个性化的商品推荐服务。
数据挖掘实验报告一、实验目的本次数据挖掘实验的主要目的是深入了解数据挖掘的基本概念和方法,并通过实际操作来探索数据中潜在的有价值信息。
二、实验环境本次实验使用了以下软件和工具:1、 Python 编程语言,及其相关的数据挖掘库,如 Pandas、NumPy、Scikitlearn 等。
2、 Jupyter Notebook 作为开发环境,方便进行代码编写和结果展示。
三、实验数据实验所使用的数据来源于一个公开的数据集,该数据集包含了关于_____的相关信息。
具体包括_____、_____、_____等多个字段,数据量约为_____条记录。
四、实验步骤1、数据预处理首先,对原始数据进行了清洗,处理了缺失值和异常值。
对于缺失值,根据数据的特点和分布,采用了平均值、中位数或删除等方法进行处理。
对于异常值,通过箱线图等方法进行识别,并根据具体情况进行了修正或删除。
接着,对数据进行了标准化和归一化处理,使得不同特征之间具有可比性。
2、特征工程从原始数据中提取了有意义的特征。
例如,通过计算某些字段的均值、方差等统计量,以及构建新的特征组合,来增强数据的表达能力。
对特征进行了筛选和降维,使用了主成分分析(PCA)等方法,减少了特征的数量,同时保留了主要的信息。
3、模型选择与训练尝试了多种数据挖掘模型,包括决策树、随机森林、支持向量机(SVM)等。
使用交叉验证等技术对模型进行了评估和调优,选择了性能最优的模型。
4、模型评估使用测试集对训练好的模型进行了评估,计算了准确率、召回率、F1 值等指标,以评估模型的性能。
五、实验结果与分析1、不同模型的性能比较决策树模型在准确率上表现较好,但在处理复杂数据时容易出现过拟合现象。
随机森林模型在稳定性和泛化能力方面表现出色,准确率和召回率都比较高。
SVM 模型对于线性可分的数据表现良好,但对于非线性数据的处理能力相对较弱。
2、特征工程的影响经过合理的特征工程处理,模型的性能得到了显著提升,表明有效的特征提取和选择对于数据挖掘任务至关重要。
数据挖掘实验报告一、实验背景。
数据挖掘是指从大量的数据中发现隐藏的、有价值的信息的过程。
在当今信息爆炸的时代,数据挖掘技术越来越受到重视,被广泛应用于商业、科研、医疗等领域。
本次实验旨在通过数据挖掘技术,对给定的数据集进行分析和挖掘,从中发现有用的信息并进行分析。
二、实验目的。
本次实验的目的是通过数据挖掘技术,对给定的数据集进行分析和挖掘,包括数据的预处理、特征选择、模型建立等步骤,最终得出有用的信息并进行分析。
三、实验内容。
1. 数据预处理。
在本次实验中,首先对给定的数据集进行数据预处理。
数据预处理是数据挖掘过程中非常重要的一步,包括数据清洗、数据变换、数据规约等。
通过数据预处理,可以提高数据的质量,为后续的分析和挖掘奠定基础。
2. 特征选择。
在数据挖掘过程中,特征选择是非常关键的一步。
通过特征选择,可以筛选出对挖掘目标有用的特征,减少数据维度,提高挖掘效率。
本次实验将对数据集进行特征选择,并分析选取的特征对挖掘结果的影响。
3. 模型建立。
在数据挖掘过程中,模型的建立是非常重要的一步。
通过建立合适的模型,可以更好地挖掘数据中的信息。
本次实验将尝试不同的数据挖掘模型,比较它们的效果,并选取最优的模型进行进一步分析。
4. 数据挖掘分析。
最终,本次实验将对挖掘得到的信息进行分析,包括数据的趋势、规律、异常等。
通过数据挖掘分析,可以为实际问题的决策提供有力的支持。
四、实验结果。
经过数据预处理、特征选择、模型建立和数据挖掘分析,我们得到了如下实验结果:1. 数据预处理的结果表明,经过数据清洗和变换后,数据质量得到了显著提高,为后续的分析和挖掘奠定了基础。
2. 特征选择的结果表明,选取的特征对挖掘结果有着重要的影响,不同的特征组合会对挖掘效果产生不同的影响。
3. 模型建立的结果表明,经过比较和分析,我们选取了最优的数据挖掘模型,并对数据集进行了进一步的挖掘。
4. 数据挖掘分析的结果表明,我们发现了数据中的一些有意义的趋势和规律,这些信息对实际问题的决策具有重要的参考价值。
第1篇一、实验背景随着大数据时代的到来,数据挖掘技术逐渐成为各个行业的重要工具。
数据挖掘是指从大量数据中提取有价值的信息和知识的过程。
本实验旨在通过数据挖掘技术,对某个具体领域的数据进行挖掘,分析数据中的规律和趋势,为相关决策提供支持。
二、实验目标1. 熟悉数据挖掘的基本流程,包括数据预处理、特征选择、模型选择、模型训练和模型评估等步骤。
2. 掌握常用的数据挖掘算法,如决策树、支持向量机、聚类、关联规则等。
3. 应用数据挖掘技术解决实际问题,提高数据分析和处理能力。
4. 实验结束后,提交一份完整的实验报告,包括实验过程、结果分析及总结。
三、实验环境1. 操作系统:Windows 102. 编程语言:Python3. 数据挖掘库:pandas、numpy、scikit-learn、matplotlib四、实验数据本实验选取了某电商平台用户购买行为数据作为实验数据。
数据包括用户ID、商品ID、购买时间、价格、商品类别、用户年龄、性别、职业等。
五、实验步骤1. 数据预处理(1)数据清洗:剔除缺失值、异常值等无效数据。
(2)数据转换:将分类变量转换为数值变量,如年龄、性别等。
(3)数据归一化:将不同特征的范围统一到相同的尺度,便于模型训练。
2. 特征选择(1)相关性分析:计算特征之间的相关系数,剔除冗余特征。
(2)信息增益:根据特征的信息增益选择特征。
3. 模型选择(1)决策树:采用CART决策树算法。
(2)支持向量机:采用线性核函数。
(3)聚类:采用K-Means算法。
(4)关联规则:采用Apriori算法。
4. 模型训练使用训练集对各个模型进行训练。
5. 模型评估使用测试集对各个模型进行评估,比较不同模型的性能。
六、实验结果与分析1. 数据预处理经过数据清洗,剔除缺失值和异常值后,剩余数据量为10000条。
2. 特征选择通过相关性分析和信息增益,选取以下特征:用户ID、商品ID、购买时间、价格、商品类别、用户年龄、性别、职业。
数据挖掘课程实验最终报告
王丹
杨亮
朱鹏飞
文本分类和主题提取
实验内容简介:
文本分为10个类别,每个类别有200篇文章,每篇文章大概3000字,属于长文本分类,对于每个类别,提取其中的主题内容。
一、预处理阶段
首先需要对文本进行预处理,
1)去掉不相关的header,footer以及其他注释信息
2)去除文本分行标志的“\r\n”,合并为一个段落
3)将处理好的文件放到新的目录下,目录结构和之前的结构相同。
二分词
对上一步进行预处理的文本进行分词,分词后放到新的目录下,目录结构仍然保持和之前的目录结构一致。
三对预处理的文本进行打包
本次步骤主要是实现一个训练用语料数据结构,为做计算tf-idf向量空间模型做准备
1首先定义训练集的数据结构
定义训练集对象:data_set
使用python的bunch类提供一种key,value的对象形式
Target_name:所有分类集名称列表
Label:每个语篇定义分类标签列表
Filenames:分词后语篇路径
Contents:分词后语篇内容
2 从分词语料库中将所需信息读入训练集的数据结构中
3 将训练集持久化为一个数据对象文件
4 读出数据对象文件,验证持久化的正确性。
四对打包后的数据计算tf-idf权重,并持久化词包文件
1 导入训练集
2 从文件导入停用词表,并转换为list
3 创建词袋数据结构,并配置停用词表
4 统计每个词语的tf-idf权值。
使用Tdidfvectorizer计算tf-idf权值。
五对测试集进行分类
1 确定测试语料:对测试语料进行预处理
2 对测试语料进行分词
3 导入测试语料:随机选取测试语料类别并记录
4 导入训练词袋模型含vocabulary
5 计算测试语料的tf-idf权值,让两个tfidfvectorizer共享一个vocabulary
6 应用分类算法
7 预测和输出分类结果
8 计算分类精度
KNN算法分类
KNN算法原理:通过训练好模型,当有新的文章来时,统计它周围k个类别的文章的类型,距离采用的是计算tf-idf矩阵间的距离,由于每篇文章是平等的,由于每类文章的数量基本
是一致的,所以不存在有权重大小问题。
朴素贝叶斯分类:
六主题提取
1 导入语料集
2 从文件导入停用词表
3 从文件导入数据包
4 统计每个类别中tf-idf排名靠前的几个词语,可以大概了解该类文本的主题。
七、实验结论
通过对文本进行分类,学习了NLP和机器学习的有关知识,本次实验分类采用了knn 和朴素贝叶斯两种方法,其中knn方法的效果好一些,当然也可以采用包括Kmeans,svm等方法,以后会尝试一下,看看效果怎么样。
文本主题的提取方法比较简单,只是提取出了tf-idf靠前的几个单词,结果中发现会有一些没有实际意义的词,并不能直观的从这些词中判断该类别的主题是什么,但是还是有一些具有代表性的词提取出来了,比如sports类别,里面有姚明、nba、曼联,这些词语还是可以很直观的表达出sports这个主题。
对于数据挖掘,在接下来的日子,还是会继续的学习下去,将来也想从事有关数据挖掘的工作,感谢老师的悉心教诲,谢谢!。