tensorflow学习笔记(五):tf.losses.softmax_cross_entropy()和tf.losses.sparse_softmax_cross_entropy()

北战南征 提交于 2019-12-03 13:03:13

tf.losses.softmax_cross_entropy(): softmax cross-entropy loss (用tf.nn.softmax_cross_entropy_with_logits 实现)

tf.losses.sparse_softmax_cross_entropy(): 稀疏softmax Cross-entropy loss (用 tf.nn.sparse_softmax_cross_entropy_with_logits 实现)

 

注意1,使用这两种Losses函数,网络的最后都不需要加上softmax函数。

注意2,在sparse_softmax_cross_entropy(),输入的label为 tf.argmax(Y, axis=1)

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!