肥皂起泡泡
问题是它们有不同的实现。正如 pytorch文档所说,nn.CrossEntropyLoss将nn.LogSoftmax()和组合nn.NLLLoss()在一个类中。但是,tensorflow文档指定keras.backend.categorical_crossentropy默认情况下不应用 Softmax,除非您设置from_logits为 True。出于这个原因,keras.backend.categorical_crossentropy除非您使用from_logits=True.如果你不想事先应用 softmax,你应该使用:import numpy as npimport torch as timport torch.nn as nnimport tensorflow.keras.backend as Ky_true = np.array([[0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]])y_pred = np.array([[0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 1, 0.41, 0.31, 0.21, 0.11]])print("Keras", K.categorical_crossentropy(K.constant(y_true), K.constant(y_pred), from_logits=True))# output: Keras tf.Tensor([2.408051], shape=(1,), dtype=float32)print("PyTorch", nn.CrossEntropyLoss()(t.tensor(y_pred).float(), t.tensor(y_true).argmax(dim=-1)))# output: PyTorch tensor(2.4081)否则,您可以在计算 categorical_crossentropy 之前手动应用 Softmaximport numpy as npimport torch as timport torch.nn as nnimport tensorflow.keras.backend as Ky_true = np.array([[0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0]])y_pred = np.array([[0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 1, 0.41, 0.31, 0.21, 0.11]])print("Keras", K.categorical_crossentropy(K.constant(y_true), K.softmax(K.constant(y_pred))))# output: Keras tf.Tensor([2.408051], shape=(1,), dtype=float32)print("PyTorch", nn.CrossEntropyLoss()(t.tensor(y_pred).float(), t.tensor(y_true).argmax(dim=-1)))# output: PyTorch tensor(2.4081)因此,您不应像在示例中那样使用keras.backend.categorical_crossentropywith 。from_logits=Falsetf.keras.backend.categorical_crossentropytarget:与输出形状相同的张量。output:由 softmax 产生的张量(除非 from_logits 为 True,在这种情况下输出预计为 logits)。from_logits:布尔值,输出是 softmax 的结果,还是 logits 的张量。