当前位置: 首页 > news >正文

网店毕业论文郑州网站seo公司

网店毕业论文,郑州网站seo公司,wordpress 更好的主题,深圳网站开发ucreator问题:上一篇的案例,真的患癌症的,能被检查出来的概率? 一、精确率和召回率 1、混淆矩阵 在分类任务下,预测结果(Predicted Condition)与正确标记(True Condition)之间存在四种不同的组合,构成混淆矩阵(适…

问题:上一篇的案例,真的患癌症的,能被检查出来的概率?

一、精确率和召回率

1、混淆矩阵
在分类任务下,预测结果(Predicted Condition)与正确标记(True Condition)之间存在四种不同的组合,构成混淆矩阵(适用于多分类)

预测结果:是预测值
正确标记:是真实值
用来求精确率和召回率的

TP = True Possitive
FN = False Negative
FP = False Possitive
TN = True Negative

2、精确率(Precision)与召回率(Recall)
精确率:预测结果为正例样本中真实为正例的比例

即是,TP / (TP + FP)

召回率:真实为正例的样本中预测结果为正例的比例

即是,TP / (TP + FN)

3、真的患癌症的,能被检查出来的概率 - 召回率

二、F1-score

1、反映了模型的稳健性

等价于:2*精确率*召回率 / (精确率 + 召回率)
Precision是预测的好瓜中有多少真正的好瓜,Recall是所有真正的好瓜被预测对了多少

三、分类评估报告API

1、sklearn.metrics.classification_report(y_true, y_pred, labels=[], target_names=None)
y_true:真实目标值
y_pred:估计器预测目标值
labels:指定类别对应的数字
我们在传y_true、y_pred传的是数字,将数字表示出来
target_names:目标类别名称
分类报告显示
return:每个类别精确率与召回率

2、在上一篇代码后添加

# 查看精确率、召回率、F1-score
from sklearn.metrics import classification_reportreport = classification_report(y_test, y_predict, labels=[2, 4], target_names=["良性", "恶性"])print(report)

运行结果:

support是样本数量

四、样本不均衡的情况

1、假设这样一个情况,总共有100个人,如果99个样本癌症,1个样本非癌症,不管怎样我全都预测正例(默认癌症为正例),准确率就为99%但是这样效果并不好,这就是样本不均衡下的评估问题
准确率:99%
召回率:99 / 99 = 100%
精确率:99 / 100 = 99%
F1-score:2*99%*100% / 199% = 99.497%

就是瞎猜,全都蒙成换了癌症,不负责任的模型
这种情况我们是要避免的,我们目前学习到的这些分类指标都不能反映出它的问题所在
样本不均衡,正样本太多,反例太少

五、ROC曲线与AUC指标

1、ROC曲线
蓝色的线是ROC曲线

2、AUC指标
ROC曲线和x轴、y轴包成的区域的面积

衡量好坏,我们看的是AUC指标,AUC越接近1越好,越接近0.5越不好

3、ROC曲线是怎么来的
TPR = TP / (TP + FN) - 就是召回率
所有真实类别为1的样本中,预测类别为1的比例
FPR = FP / (FP + FN)
所有真实类别为0的样本中,预测类别为1的比例

TPR是正例的召回率,FPR是反例的召回率
ROC曲线就是由TPR和FPR这两个指标构成的

当TPR=FPR:
正例的召回率、反例的召回率都为1,说明是在瞎猜,就是红色的斜线,面积是 1*1/2 = 0.5

当TPR>FPR:
TPR接近于1,FPR接近于0,就是接近于Perfect Classification,面积是 1*1=1

当TPR<FPR:
就是一条反曲线,做反向预测用

4、AUC的意义
(1)AUC的概率意义是随机取一对正负样本,正样本得分大于负样本的概率
(2)AUC的最小值为0.5,最大值为1,取值越高越好
(3)AUC=1,完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器
(4)0.5<AUC<1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值
(5)最终AUC的范围在[0.5, 1]之间,并且越接近1越好

六、AUC的计算API

1、sklearn.metrics.roc_auc_score(y_true, y_score)
计算ROC曲线面积,即AUC值
y_true:每个样本的真实类别,必须传0(反例),1(正例)
y_score:可以是预测得分,可以是正例的估计概率、置信值或者分类器方法的返回值

2、代码

y_test.head()# y_true:每个样本的真实类别,必须传0(反例),1(正例)
# 将y_test转换成0,1
y_true = np.where(y_test > 3, 1, 0)y_truefrom sklearn.metrics import roc_auc_scoreroc_auc_score(y_true, y_predict)

运行结果:

七、小结

AUC只能用来评价二分类
AUC非常适合评价样本不平衡中的分类器性能
 

http://www.yidumall.com/news/14529.html

相关文章:

  • 菜鸟制作个人网站网页实例seo优化网站模板
  • 深圳设计平台seo优化软件大全
  • 龙岗做网站的公司seo1搬到哪里去了
  • 网站主服务器地址seo搜索引擎优化案例
  • 学习网站建设与管理中国制造网外贸平台
  • 石家庄疫情挨批什么是网站seo
  • 百度seo代做百中搜优化软件靠谱吗
  • ui是做网站的吗网上推广企业
  • 没得公司可以做网站嘛网络营销策划与推广
  • 手机视频网站建设四川旅游seo整站优化
  • 房屋装修效果图怎么制作太原百度关键词优化
  • 迷失传奇网站naocq搜索引擎的作用
  • 十堰市有几家网站公司在线网站建设平台
  • 如何知道网站用什么程序做的如何提高百度关键词排名
  • 网站幕布拍摄企业网络营销系统分析报告
  • 金乡做网站 亿九网站推广的公司
  • 做网站怎么每天更新内容怎么推广网站
  • 网站设计类论文怎么做企业管理软件
  • 惠州建站方案百度搜索关键词排名靠前
  • 个人建站免费服务器百度客服24小时电话
  • 用php做购物网站案例一年的百度指数
  • 北京网站排名制作新闻热点素材
  • vs2012建设网站nba新闻最新消息
  • 大连做网站深圳百度
  • 北京龙鼎网站建设公司澎湃新闻
  • 淄博外贸网站建设公司免费网站外链推广
  • 高新技术企业网站怎么做seo技术学院
  • 互联网营销师怎么做天津百度快速优化排名
  • 做citation的网站站长工具查询域名
  • 用国外服务器做网站百度数据