背景

机器学习中,如何评估一个模型的好坏极关重要,否则训练出来了我们自己都说不明白到底该不该用,一句话就是心里没底。
本文将用较为白话的角度来阐述这些指标。
注:这些指标(准确率、精确率、召回率)用中文表示容易混淆,例如准确率和精确率,本文将用英文来进行表述

指标介绍

在介绍之前,我们先上一个二分类的例子

假定已经根据训练集训练出了一个模型,这个模型等待进行评估。
现在给定测试集,正样本60个,负样本40个,一共100个。
你可以简单的比喻为,一个班有60个男的,40个女的,但是呢,我们又预先不知道,而是通过模型来进行预测。(这里把男比喻为整样本,女比喻为负样本)

模型预测结果:

  • 50个是男的,50个是女的

真实结果:

  • 预测的50个男的中,有40个是男的,10个是女的
  • 预测的50个女的中,有30个是女的,20个是男的

英文表示:

  • TP:将正类预测为正类数量,40
  • FN:将正类预测为负类数量,20
  • FP:将负类预测为正类数量,10
  • TN:将负类预测为负类数量,30

混淆矩阵如下:

预测男 预测女
真实男 40(TP) 20(FN)
真实女 10(FP) 30(TN)

看到这些男男女女、正正负负是不是很蒙。。。

Accuracy(中文译为准确率)

白话描述:找的准
accuracy = 预测对的 / 所有 = (TP+TN)/(TP+FN+FP+TN) = 70%
注意:accurary是对全部类别计算的

Recall(召回率)

白话描述:找的全
正样本召回率:recall = TP/(TP+FN) = 预测正样本对的 / 所有正样本 = 66.6%

Precision(精确率)

白话描述:xxxxx
precision = TP/(TP+FP) = 80%
注意:precision是按一个分类(男,即正分类)计算的

总结

  • Precision,被我们的算法选为positive的数据中,有多少真的是positive的?
  • Recall: 实际应该为Positive的数据中,多少被我们选为了Positive?
  • Accuracy: 所有数据中,我们正确分类了多少?
  • F1 Score是precision和recall整合在一起的判定标准(类似于ROC评估,可以直接标定一个模型的好坏)

机器学习-准确率、召回率、精确率、f1score等相关推荐

  1. 机器学习分类指标:精确率、准确率、召回率详解

    混淆矩阵 在介绍具体的定义之前先了解一些混淆矩阵(confusion matrix): 一种 NxN 表格,用于总结分类模型的预测效果:即标签和模型预测的分类之间的关联.在混淆矩阵中,一个轴表示模型预 ...

  2. sklearn预测评估指标计算详解:准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1score

    目录 前言 一.准确率 二.精确率 三.召回率 四.F1-score

  3. 机器学习(15)精确率召回率F1-score(查看癌症预测结果的精确率、召回率)

    目录 一.基础理论 1.混淆矩阵 2.精确率 3.召回率 4.F1-score 二.查看癌症预测结果的精确率.召回率 API 查看癌症预测结果的精确率.召回率 总代码 一.基础理论 1.混淆矩阵 预测 ...

  4. python计算召回率_机器学习之分类:精确率和召回率

    精确率 精确率指标尝试回答以下问题: 在被识别为正类别的样本中,确实为正类别的比例是多少? 精确率的定义如下: Precision = \dfrac{TP}{TP + FP} 注意:如果模型的预测结果 ...

  5. 详解准确率acc、精确率p、准确率acc、F1 score

    准确率 Accuracy: 模型预测正确的比例:总样本中预测对的概率:所有样本中实际是正例的占比:正确预测的样本数与总样本数之比. 准确率 =(真正例+真负例)/(真正例+真负例+假正例+假负例). ...

  6. 机器学习分类问题指标理解——准确率(accuracy)、精确率(precision)、召回率(recall)、F1-Score、ROC曲线、P-R曲线、AUC面积

    2020.08.25更新: 修改了ROC曲线中TPR公式的错误. 2020.07.25更新: 修改了混淆矩阵,每一行为实际值,每一列与预测值. 机器学习分类问题指标理解 0. 一个例子 1.准确率(A ...

  7. 准确率(Accuracy),精确率/查准率(Precision), 召回率/查全率(Recall)和F1-Measure

    机器学习(ML), 自然语言处理(NLP), 信息检索(IR)等领域, 评估(Evaluation)是一个必要的工作, 而其评价指标往往有如下几点: 准确率(Accuracy), 精确率(Precis ...

  8. 模型测试集上准确率(ACC)、精确率precision、召回率recall、AUC评估指标计算

    TP: 预测为正,实际为正 TN: 预测为负,实际为负 FP:预测为正,实际为负 FN: 预测为负,实际为正 准确率(accuracy) = 预测对的/所有 = (TP+TN)/(TP+FN+FP+T ...

  9. 准确率(Auccary),精确率(Precision),召回率(Recall),F1,ROC,AUC说明

    符号解释: TP  :  所有被正确预测为正的样例数(真阳)(正 正) FP  :  所有被错误预测为正的样例数(假阳)(负 正) TN  :  所有被正确预测为负的样例数(真阴)(负 负) FN  ...

  10. python分类预测降低准确率_【火炉炼AI】机器学习011-分类模型的评估:准确率,精确率,召回率,F1值...

    [火炉炼AI]机器学习011-分类模型的评估:准确率,精确率,召回率,F1值 (本文所使用的Python库和版本号: Python 3.5, Numpy 1.14, scikit-learn 0.19 ...

最新文章

  1. 表中的数据导出为insert语句的简单方法
  2. 电子计算机系统可以分为几类,电子计算机分为两大类.doc
  3. java springmvc mybatis mysql
  4. rxjs的一个例子:什么是rxjs的OperatorFunction?
  5. 初识贪心——调度问题
  6. quartz.net隔一天执行一次_母乳喂养多久喂一次最好?过度喂养危害大
  7. SDL环境初始化测试代码
  8. java executor spring_java 线程池(ExecutorService与Spring配置threadPoolTaskExecutor)
  9. Ubuntu16.04 ORB_SLAM2的安装教程
  10. silverlight 碰撞检测
  11. DDD案例(2):从领域分析到代码实现
  12. 在微信群如何使用接龙功能
  13. 实际场景中的多线程使用
  14. 面试了10几家软件公司测试岗位,做的面试题大盘点,重点大合集
  15. 只有程序员才懂得的梗!
  16. 关于IBM笔记本快捷键使用一览表
  17. 怎样才能顺利的通过中质协六西格玛黑带考试
  18. chrome提示无法从该网站添加应用扩展程序和用户脚本解决办法
  19. 高校学生“在家实践”计划 免费领取12个月阿里云ECS云服务器
  20. 第二周周报(9.13-9.19)

热门文章

  1. linux软中断和消息队列结合,传统UNIX进程间通信内核实现概要
  2. 大衍筮法-python实现
  3. Android实现发短信,打电话
  4. Snow Boots
  5. python深度学习--Keras函数式API(多输入,多输出,类图模型)
  6. [USF-XSim-62] 'elaborate' step failed with error(s).使用vivado进行verilog实验,无法进行仿真,如何解决?
  7. 计算机网络学习笔记 4.7 移动IP
  8. 001. 蓝海和红海
  9. 前缀和与差分那些不得不说的事(一维,二维)公式与图解详细解说
  10. java实现ecc加密:通过AES生成公钥加密数据,ECC加密公钥