||
(1)总结来说就是:
f(wx+b)之后的输出,没有归一化的输出值,作为logits。
将logits进行softmax归一化,得到最后的结果。
(2)具体来说是:
也可以这么理解:logits与 softmax都属于在输出层的内容,
logits = tf.matmul(X, W) + bias
再对logits做归一化处理,就用到了softmax:
Y_pred = tf.nn.softmax(logits,name='Y_pred')
——————————————————————
Unscaled log probabilities of shape [d_0, d_1, ..., d_{r-1}, num_classes] and dtype float32 or float64.
可以理解logits ——【batchsize,class_num】是未进入softmax的概率,一般是全连接层的输出,softmax的输入。
(3)更详细参考
点滴分享,福泽你我!Add oil!
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-9 07:12
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社