“tf.nn.relu(A)”和“tf.maximum(A, 0)”是一样的吗?

这里有两个代码。


tf.nn.relu("output of previous layer")


tf.maximum("output of previous layer", 0)

这两个行为完全一样吗?


换句话说,是否有可能用另一个替换一个?


凤凰求蛊
浏览 195回答 1
1回答

当年话下

一旦 relu 被定义为:max(features, 0)他们基本上是一样的。两者都将张量作为输入并返回张量。唯一的区别是支持的类型。将tf.nn.relu支持以下类型:float32, float64, int32, uint8, int16, int8, int64, bfloat16, uint16, half, uint32, uint64,qint8while tf.maximum支持上述类型的一个子集:half, float32, float64, int32,int64
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python