NJU1healer的个人博客分享 http://blog.sciencenet.cn/u/NJU1healer

博文

深度学习中的logits

已有 6846 次阅读 2020-10-18 15:40 |个人分类:机器学习|系统分类:科研笔记

(1)总结来说就是:

f(wx+b)之后的输出,没有归一化的输出值,作为logits。

将logits进行softmax归一化,得到最后的结果。

(2)具体来说是:

也可以这么理解:logits与 softmax都属于在输出层的内容,

logits = tf.matmul(X, W) + bias

再对logits做归一化处理,就用到了softmax:

Y_pred = tf.nn.softmax(logits,name='Y_pred')

——————————————————————

Unscaled log probabilities of shape [d_0, d_1, ..., d_{r-1}, num_classes] and dtype float32 or float64.

可以理解logits ——【batchsize,class_num】是未进入softmax的概率,一般是全连接层的输出,softmax的输入。

(3)更详细参考

如何理解深度学习源码里经常出现的logits?

TensorFlow 中 logits 的由来

点滴分享,福泽你我!Add oil!



https://wap.sciencenet.cn/blog-3428464-1254822.html

上一篇:python-f-string(简洁明了的输出,拒绝冗余)
下一篇:[转载]深度学习中IU、IoU(Intersection over Union)的概念理解
收藏 IP: 211.162.81.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (0 个评论)

数据加载中...
扫一扫,分享此博文

全部作者的其他最新博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-3-2 01:22

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部