tf.nn.softmax_cross_entropy_with_logits详解
衡量的是独立互斥离散分类任务的误差 该网络会计算logits和labels的softmax cross entropy loss,独立互斥离散分类任务是因为,在这些任务中类与类之间是独立而且互斥的,比如VOC classification、Imagenet、CIFAR-10甚至MNIST,这些都是多分类任务,但是一张图就对应着一个类,class在图片中是独立的,并且一张图中只能有一个class,所以是独立且互斥事件。 直观表现为label形式为[0,0,…,1,0,…0],1000个元素中有且只有一个元素是1,其余都是0。 在卷积神经网络中的全连接层一般需要计算loss最小代价值(误差),也就是下面方法: loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=outputs, logits=prediction) (即将废弃) loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(labels=labels, logits=logits)) (等同上面) labels :类维度的每个向量应该保持有效的概率分布,比如10分类[0,0,0,0,0,0,0,1,0,0] logits :未缩放的日志概率(全连接层的输出)