sigmoid_cross_entropy_with_logits,softmax_cross_entropy_with_logits,sparse_softmax_cross_entropy_...
tf.nn.sigmoid_cross_entropy_with_logits 函数的计算方式就是对输出值先算sigmoid,然后与真实值做交叉商运算。 sigmoid函数的定义: 1 1 + e − x \displaystyle\frac{1}{1+e^{-x}} 1 + e − x 1 交叉商的计算方式: − ( l a b e l s ∗ l o g ( − l o g i t s ) + ( 1 − l a b e l s ) ∗ l o g ( 1 − l o g i t s ) ) -(labels*log(-logits)+(1-labels)*log(1-logits)) − ( l a b e l s ∗ l o g ( − l o g i t s ) + ( 1 − l a b e l s ) ∗ l o g ( 1 − l o g i t s ) ) l a b e l s labels l a b e l s 是标签, l o g i t s logits l o g i t s 是预测值。 函数的输入通常是形状为(batch_size,num_classes)的张量,输出是(batch_size,num_classes)的张量,每一个值代表当前这个batch_size个数据的每一个数据的loss值,通常接reduce