第三章 分类器性能评价

  • 格式:ppt
  • 大小:3.94 MB
  • 文档页数:25

下载文档原格式

  / 25
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

实际正例数(P)=TP+FN 实际负例数(N)=FP+TN
实例总数(C)=P+N
显然,一个混合矩阵已经能够显示出评 价分类器性能的一些必要信息。为了更方便 的比较不同分类器的性能,从混合矩阵中总 结出上述常用的数字评价标准。
对用误分率作为标准的分类器的评估
●其判断分类器表现的评价准则是:这个分类器做出错误 分类的概率有多大。
例如: 设测试样本中, A类样本90个,B类样本10个。
分类器C1将所有的测试样本都分成了 A类 分类器C2将A类的90个样本分对了 70个,将B类 的样本分对了 5个
则:C1的分类精度为 90% C2的分类精度为 75%,显然,C2更有用些。
基于上述问题,人们从医疗分析领域引入了新
的分类器性能评价方法 ——ROC曲线和AUC方法
第三章-分类器性能评价
目录
? 前言 ? 常见的评价标准 ? ROC曲线和AUC方法
前言
分类过程的两个阶段
第一阶段:采用学习算法,通过对训练集进行归纳学习得到 分类模型;
第二阶段:将已经学习得到的分类模型用于测试集,对测试 集中未知类别的实例进行分类。
显然,通过训练集产生的分类模型未必是最佳 的,这就导致对测试集的分类可能产生错误。而人 们希望尽量得到性能最佳的分类模型,就使得对分 类器性能评价至关重要。只有通过优秀的评价标准 才能选择出性能更好的分类器。
●稳定性 一个模型是稳定的,是指它没有随着它所针对数 据的变化而过于剧烈变化。
●成本 这涉及预测错误代价所产生的计算花费。
使用这些评价标准可以对分类器进行评估,尤 其是其中的准确率或误分率,是比较常用的分类器 性能评价标准。
但是,所有这些性能评价标准都只在一个操作 点有效,这个操作点即是选择使得错误概率最小的 点。而且,这些评价标准都有一个共同的弱点,即 它们对于类分布的改变显得不够强壮。当测试集中 正例和负例的比例发生改变时,它们可能不再具有 良好的性能,甚至不被接受。
另一些分类器中,如朴素贝叶斯和神经网 络,在应用于测试集时会产生实例属于类别 的概率或分数。利用这些概率或分数,通过 变化分类器所有可能的决策阈值,即可以绘 制出分类器在该数据集上的ROC曲线。
实际上,通过有限实例产生的ROC曲线实际 上是一个阶梯函数,该曲线近似于实例数量 接近无限时对应的ROC曲线。
不对称的误分成本和贝叶斯风险
这里存在误分率标准不适合的情况。因为有时把一 个类的例子误分成某一类的后果会比分到其它类中的后 果更严重。比如说:在医疗系统中,将一个有病的人判 断为一个没病的人其将导致病人延误治疗的时机,使病 情进一步恶化甚至导致生命危险。在这种场景下,用误 分率作为标准会产生误导。假设其生病的概率只有 1%, 将他归为不生病的误分率也只有 1%,但在实际中没有一 点意义,因为生命只有一次。在这些情况下,如果我们 估计两种类型的误分费用,我们可以在测试数据集中用 混淆表计算出每种类型的期望误分成本。这使我们能用 机会成本作为标准去比较不同的分类器。
? 查准率(Precision) :正确分类的正例个数占分类 为正例的实例个数的比例
Precision=TP/(TP+FP) ? 查全率(Recall):正确分类的正例个数占实际正例
个数的比例。
Recall=TP/P
? F1值:查全率与查询率的调和平均数
F1=
_2_R__e_ca_l_l*_P_r_e_c_is_o_n__ Recall+Precison
一个没有发生错误的分类器可能是完美的,但由于存在 “噪声数据”,在实际中我们并不希望构建这样的分类器, 没有必要用所有的信息去对例子进行精确地分类。我们需 要的分类器是否存在最小的误分概率?
●误分率(Error rate) :错误分类的测试实例个数占测试实 例总数的比例
Error rate=1-Accuracy=(FN+FP)/C
ROC图形是一个二维图形,横轴为 FPR,纵Biblioteka Baidu为 TPR,直观的展示 FPR与TPR之间的对应关系。
一些分类器,例如决策树和规则集,仅产生一个类标 签,这样的离散分类器在对测试集进行分类时,仅产生一 个混合矩阵,对应于ROC区域中的一点。
在ROC区域中, (FPR=0,TPR=0) 意味着将每一个实例都预测为负例 (FPR=1,TPR=1) 意味着将每一个实例都预测为正例 (FPR=0,TPR=1) 为最优分类器点
准确率
? 分类准确率是指:模型正确的预测新的或先前未 见过的数据的类标号的能力。影响分类器准确率 的因素有:训练数据集记录的数目、属性的数目、 属性中的信息、测试数据集记录的分布情况等。
? 准确率(Accuracy) :正确分类的测试实例个数占 测试实例总数的比例
Accuracy=(TP+TN)/C
分类器性能评价标准
常用的评价标准:
?误分率 ?查全率 ?F1值 ?速度 ?可伸缩性 ?成本
●准确度 ●查准率 ●计算复杂度 ●可解释性 ●稳定性
混合矩阵
两类问题中的混合矩阵
主对角线:被正确分类的正例个数 (TP个)和被正确 分类的负例个数 (TN个)
副对角线:被错误分类的负例个数 (FP个)和被错误 分类的负例个数 (FN个)
ROC曲线和AUC方法
ROC curve :the Receiver Operating Characteristic AUC:the area under ROC
为了清楚的描述 ROC图形,根据混合矩阵,定义两个 概念:
错误的正例率 (False Positive Rate,FPR)=FP/N 正确的正例率 (True Positive Rate.TPR)=TP/P
●计算复杂度
计算复杂度决定着算法执行的速度和占用的资源, 它依赖于具体的实现细节和软硬件环境。由于数 据挖掘的操作对象是海量的数据库,因而空间和 时间的复杂度将是非常重要的问题。
●速度
这涉及产生和使用模型的时间花费。
●可解释性
分类结果只有可解释性好,容易理解,才能更 好地用于决策支持。
●可伸缩性
一个模型的可伸缩的,是指在给定内存和磁盘 空间等可用的系统资源的前提下,算法的运行时 间应当随数据库大小线性增加。