如何选择张量流中的交叉熵损失?

如何选择张量流中的交叉熵损失?

分类问题,例如逻辑回归或多项逻辑回归,优化了交叉熵损失。通常,交叉熵层遵循softmax层,其产生概率分布。

在tensorflow中,至少有十几种不同的交叉熵损失函数

  • tf.losses.softmax_cross_entropy

  • tf.losses.sparse_softmax_cross_entropy

  • tf.losses.sigmoid_cross_entropy

  • tf.contrib.losses.softmax_cross_entropy

  • tf.contrib.losses.sigmoid_cross_entropy

  • tf.nn.softmax_cross_entropy_with_logits

  • tf.nn.sigmoid_cross_entropy_with_logits

  • ...

哪个只适用于二进制分类,哪个适用于多类问题?你何时应该使用sigmoid而不是softmax?如何在sparse功能与别人不同,为什么仅是它softmax


米琪卡哇伊
浏览 1154回答 2
2回答

慕尼黑的夜晚无繁华

但是对于版本1.5,softmax_cross_entropy_with_logits_v2必须使用它,而使用其参数argument key=...如下>softmax_cross_entropy_with_logits_v2(_sentinel=None, labels=y,\ logits = my_prediction, dim=-1, name=None)
打开App,查看更多内容
随时随地看视频慕课网APP