NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

Python中函数:pop()、sklearn中shuffle、classification_report

已有 5306 次阅读 2020-8-19 15:26 |个人分类:Python|系统分类:科研笔记

(1) pop函数

pop() 函数用于移除列表中的一个元素(默认最后一个元素),并且返回该元素的值。

语法:list.pop(obj=list[-1])       //默认为 index=-1,删除最后一个列表值。

obj -- 可选参数,要移除列表元素的对象。

该方法返回从列表中移除的元素对象


sentence=['All', 'good', 'things', 'come', 'to' ,'those', 'who', 'wait.']

print("默认为 index=-1,删除最后一个列表值:",sentence.pop(-1),"\n")
print("默认删除最后一个列表值: ",sentence.pop(),"\n")
print("删除第一个元素:",sentence.pop(0),"\n")
print("删除第三个元素:",sentence.pop(2),"\n")
print("输出剩余元素:",sentence)


运行结果为:(该方法返回从列表中移除的元素对象。)

每执行print()一下就移除一个

(2)sklearn中的shuffle

功能:shuffle打乱样本的顺序,它只会打乱样本的顺序,每个样本的数据维持不变。
示例代码:

import numpy as np
from sklearn.utils import shuffle

#3.通过字典创建data
dic1 = {
    'name': ['张三', '李四', '王二麻子', '小淘气'], 
    'age': [37, 30, 50, 16], 
    'gender': ['男', '男', '男', '女']}
df5 = pd.DataFrame(dic1)
print('df5', df5)

df5_shuff = shuffle(df5)
print('df5_shuff',df5_shuff)

(3)classification_report

        分类模型的评估标准一般最常见使用的是准确率(estimator.score()),即预测结果正确的百分比。准确率是相对所有分类结果;

 混淆矩阵:

image.png


 精确率、召回率、F1-score是相对于某一个分类的预测评估标准。 

精确率(Precision):预测结果为正例样本中真实为正例的比例(查的准)(\tfrac{TP}{TP+FP}

image.png

召回率(Recall):真实为正例的样本中预测结果为正例的比例(查的全)(\frac{TP}{TP+FN}

image.png

分类的其他评估标准:F1-score,反映了模型的稳健型

image.png

具体示例代码见博客

Python scikit-learn,分类模型的评估,精确率和召回率,classification_report

(4)kappa系数

python脚本代码:

def kappa(matrix):

    n = np.sum(matrix)

    sum_po = 0

    sum_pe = 0

    for i in range(len(matrix[0])):

        sum_po += matrix[i][i]

        row = np.sum(matrix[i, :])

        col = np.sum(matrix[:, i])

        sum_pe += row * col

    po = sum_po / n

    pe = sum_pe / (n * n)

    # print(po, pe)

    return (po - pe) / (1 - pe)

#其中,matrix是一个方阵,若共有i个类别,则matrix.shape = (i,i).

#用下面的代码进行测试:

 

import numpy as np

matrix = [

    [239,21,16],

    [16,73,4],

    [6,9,280]]

 

matrix = np.array(matrix)

print(kappa(matrix))

概念说明:

       分类是机器学习中监督学习的一种重要应用,基于统计的机器学习方法可以使用SVM进行二分类,可以使用决策书,梯度提升树等进行多分类。 
       对于二分类模型,我们通常可以使用ROC曲线来评估模型的预测效果。这里,我们介绍一下在多分类中衡量模型评估准确度的一种方法–kappa系数评估方法。

Kappa系数

       kappa系数是用在统计学中评估一致性的一种方法,我们可以用他来进行多分类模型准确度的评估,这个系数的取值范围是[-1,1],实际应用中,一般是[0,1],与ROC曲线中一般不会出现下凸形曲线的原理类似。 
      这个系数的值越高,则代表模型实现的分类准确度越高。kappa系数的计算方法可以这样来表示:

 image.png

推荐:使用现成的函数

混淆矩阵(Confusion matrix)的原理及使用(scikit-learn 和 tensorflow)


【参考】

https://www.cnblogs.com/foremostxl/p/9365482.html

https://blog.csdn.net/weixin_38410551/article/details/104432252

https://www.cnblogs.com/webRobot/p/11459892.html



https://wap.sciencenet.cn/blog-3428464-1246995.html

上一篇:分类问题中的过采样和欠采样
下一篇:numpy中的np.max 与 np.maximum区别以及 常用函数+实例代码(softmax)
收藏 IP: 211.162.81.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

全部作者的其他最新博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-25 13:19

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部