算法的立体匹配算法评价指标标有哪些

评价推荐系统之27大指标
已有 4549 次阅读
|个人分类:|系统分类:|关键词:推荐系统 评价 指标
转载本文请联系原作者获取授权,同时请注明本文来自吕琳媛科学网博客。链接地址:
上一篇:下一篇:
当前推荐数:5
评论 ( 个评论)
扫一扫,分享此博文
作者的精选博文
作者的其他最新博文
热门博文导读
Powered by
Copyright &用户名:dreaminthewind
文章数:40
访问量:29304
注册日期:
阅读量:1297
阅读量:3317
阅读量:585117
阅读量:470706
51CTO推荐博文
& &我们主要用的正确率(accuracy)来评价分类算法。  正确率确实是一个很好很直观的评价指标,但是有时候正确率高并不能代表一个算法就好。比如某个地区某天地震的预测,假设我们有一堆的特征作为地震分类的属性,类别只有两个:0:不发生地震、1:发生地震。一个不加思考的分类器,对每一个测试用例都将类别划分为0,那那么它就可能达到99%的正确率,但真的地震来临时,这个分类器毫无察觉,这个人类带来的损失是巨大的。为什么99%的正确率的分类器却不是我们想要的,因为这里数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的正确率却忽视了我们关注的东西。接下来详细介绍一下分类算法的评价指标。一、评价指标  1、几个常用的术语  这里首先介绍几个常见的模型评价术语,现在假设我们的分类目标只有两类,计为正例(positive)和负例(negtive)分别是:  1)True positives(TP): &被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);  2)False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;  3)False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;  4)True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。650) this.width=650;" title="QQ图片16.jpg" src="/.jpg" width="662" height="238" alt="20.jpg" />上图是这四个术语的混淆矩阵,我只知道FP叫伪阳率,其他的怎么称呼就不详了。注意P=TP+FN表示实际为正例的样本个数,我曾经误以为实际为正例的样本数应该为TP+FP,这里只要记住True、False描述的是分类器是否判断正确,Positive、Negative是分类器的分类结果。如果正例计为1、负例计为-1,即positive=1、negtive=-1,用1表示True,-1表示False,那么实际的类标=TF*PN,TF为true或false,PN为positive或negtive。例如True positives(TP)的实际类标=1*1=1为正例,False positives(FP)的实际类标=(-1)*1=-1为负例,False negatives(FN)的实际类标=(-1)*(-1)=1为正例,True negatives(TN)的实际类标=1*(-1)=-1为负例。  2、评价指标  1)正确率(accuracy)  正确率是我们最常见的评价指标,accuracy = (TP+TN)/(P+N),这个很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好;  2)错误率(error rate)  错误率则与正确率相反,描述被分类器错分的比例,error rate = (FP+FN)/(P+N),对某一个实例来说,分对与分错是互斥事件,所以accuracy =1 - &error rate;  3)灵敏度(sensitive)  sensitive = TP/P,表示的是所有正例中被分对的比例,衡量了分类器对正例的识别能力;  4)特效度(specificity)  specificity = TN/N,表示的是所有负例中被分对的比例,衡量了分类器对负例的识别能力;  5)精度(precision)  精度是精确性的度量,表示被分为正例的示例中实际为正例的比例,precision=TP/(TP+FP);  6)召回率(recall)  召回率是覆盖面的度量,度量有多个正例被分为正例,recall=TP/(TP+FN)=TP/P=sensitive,可以看到召回率与灵敏度是一样的。  7)其他评价指标预测的准确率:这涉及到模型正确地预测新的或先前没见过的数据的类 标号能力。速度:涉及到产生和使用模型的计算花费。强壮性:这涉及给定噪声数据或具有空缺值的数据,模型正确预测的能力。可伸缩性:这涉及给定大量的数据,有效的构造模型的能力。可解释性:这涉及学习模型提供的理解和洞察的层次。三、Weka 中分类算法的参数解释Correlation coefficient (= CC) : 相关系数Root mean squared error (= RMSE) : 均方根误差Root relative squared error (= RRSE) : 相对平方根误差Mean absolute error (= MAE) : 平均绝对误差Root absolute error (= RAE) : 平均绝对误差平方根Combined: (1-abs (CC)) + RRSE + RAE: 结合的Accuracy (= ACC) : 正确率注意,Correction coefficient 只适用于连续值类别,Accuracy 只适用于离散类别Kappa statistic:这个指标用于评判分类器的分类结果与随机分类的差异度。绝对差值(Mean absolute error):这个指标用于评判预测值与实际值之间的差异度。把多次测得值之间相互接近的程度称为精密度,精密度用偏差表示,偏差指测得值与平均值之间的差值,偏差越小,精密度则越高。中误差(Root mean square error:RMSE):带权残差平方和的平均数的平方根,作为在一定条件下衡量测量精度的一种数值指标。中误差是衡量观测精度的一种数字标准,亦称“标准差”或“均方根差”。在相同观测条件下的一组真误差平方中数的平方根。因真误差不易求得 , 所 以通常用最小二乘法求得的观测值改正数来代替真误差。它是观测值与真值偏差的平方和观测次数 n 比值的平方根。中误差不等于真误差,它仅是一组真误差的代表值。中误差的大小反映了该组观测值精度的高低,因此,通常称中误差为观测值的中误差。
了这篇文章
类别:未分类┆阅读(0)┆评论(0)当前位置: >
评价排序算法好坏的主要标准是()。
A.执行时间&& &
B.辅助空间
C.算法本身的复杂度&& &
D.执行时间和所需的辅助空间
所属学科:
试题类型:客观题
所属知识点:
试题分数:1.0 分
暂未组卷。
暂无学习笔记。
&&&&&&&&&&&&&&&希赛网 版权所有 & &&分类算法中常用的评价指标
&来自网络,备份勿忘!
对于分类器(分类算法),评价指标主要有:1)Precision;2)Recall;3)F-4)A5)ROC;6)AUC
1.首先,介绍混淆矩阵的概念。
2.然后,由混淆矩阵计算评价指标。
&&&&&&&&2)
3) :查准率和查全率的调和平均值,
更接近于P, R两个数较小的那个
分类器对整个样本的判定能力,即将正的判定为正,负的判定为负:
,而一个随机猜测模型应位于连接点
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。推荐算法的评价指标_Aileen_新浪博客
推荐算法的评价指标
1.平均误差MAE(Mean Absolute
Error&)(学术上最常用)
平均绝对误差 MAE是评价推荐 算法质量 的标准之一 ,它通过计算预测评分与真实评价数
据上的差别来衡量推荐结果的准确性。MAE的值越小
,推荐准确性越高。假设预测的用户评分集合表示为{P1,P2,⋯PN},对应
的实际用户评分集合为 {q1,q2,⋯ ,qN} ,则具体的
MAE计算公式为&
2.准确率与召回率(Precision
& Recall)
准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。
一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。
正确率、召回率和 F1
值是在鱼龙混杂的环境中,选出目标的重要评价指标。不妨看看这些指标的定义先:
1.&正确率 = 提取出的正确信息条数 /
&提取出的信息条数&&
& & 2. 召回率 = 提取出的正确信息条数 /
&样本中的信息条数&
两者取值在0和1之间,数值越接近1,查准率或查全率就越高。&&&
F1值& = 正确率 * 召回率 * 2 / (正确率 + 召回率) (F
值即为正确率和召回率的调和平均值)。
R(u)​ :向用户u推荐的N个物品集合。​
T(u): &数据集合中用户u真实评分过的物品集合。
3.综合评价指标(F-Measure)
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均:
当参数α=1时,就是最常见的F1,也即:
可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。
4.覆盖率(coverage)​
​5.流行度
​6.平均正确率(Average
Precision, AP) 、MAP
AP:对某个用户的推荐结果的平均准确率。
:对每个用户的推荐结果的AP值得平均值。该值越高,表明推荐算法的总体推荐质量越好。
​参考链接:
1./weblog//precision-recall-f-measure/​
2.http://blog.csdn.net/zyvscc/article/details/7551828
博客等级:
博客积分:0
博客访问:7,455
关注人气:0
荣誉徽章:

我要回帖

更多关于 算法的评价指标 的文章

 

随机推荐