如何选择张量流中的交叉熵损失?
分类问题,例如逻辑回归或多项逻辑回归,优化了交叉熵损失。通常,交叉熵层遵循softmax层,其产生概率分布。
在tensorflow中,至少有十几种不同的交叉熵损失函数:
tf.losses.softmax_cross_entropy
tf.losses.sparse_softmax_cross_entropy
tf.losses.sigmoid_cross_entropy
tf.contrib.losses.softmax_cross_entropy
tf.contrib.losses.sigmoid_cross_entropy
tf.nn.softmax_cross_entropy_with_logits
tf.nn.sigmoid_cross_entropy_with_logits
...
哪个只适用于二进制分类,哪个适用于多类问题?你何时应该使用sigmoid
而不是softmax
?如何在sparse
功能与别人不同,为什么仅是它softmax
?
慕尼黑的夜晚无繁华