tf.losses.softmax_cross_entropy(): softmax cross-entropy loss (用tf.nn.softmax_cross_entropy_with_logits 实现)
tf.losses.sparse_softmax_cross_entropy(): 稀疏softmax Cross-entropy loss (用 tf.nn.sparse_softmax_cross_entropy_with_logits 实现)
注意1,使用这两种Losses函数,网络的最后都不需要加上softmax函数。
注意2,在sparse_softmax_cross_entropy(),输入的label为 tf.argmax(Y, axis=1)
来源:CSDN
作者:cgd132
链接:https://blog.csdn.net/cgd132/article/details/82315903