我知道在小型网络中需要偏置来改变激活函数。但是,对于具有多个CNN层,池化,丢失和其他非线性激活的Deep网络而言,Bias是否真的有所作为? 卷积滤波器正在学习局部特征,并且对于给定的 conv 输出通道使用相同的偏差。
这不是对这个链接的欺骗。上面的链接仅说明了偏差在小型神经网络中的作用,并未尝试说明偏差在包含多个CNN层,辍学,合并和非线性激活函数的深层网络中的作用。
我进行了一个简单的实验,结果表明从 conv 层去除偏差对最终测试精度没有影响。 训练了两个模型,测试准确率几乎相同(没有偏差的一个稍微好一点。)
model_with_bias,
model_without_bias(在conv层中没有添加偏差)
它们是否仅用于历史原因?
如果使用偏差不能提高准确性,我们不应该忽略它们吗?要学习的参数更少。
如果有人比我有更深的知识,可以解释深层网络中这些偏见的重要性(如果有的话),我将不胜感激。
输出:
已初始化
测试精度(有偏差):90.5%
测试准确率(无偏差):90.6%
RISEBY
慕后森
相关分类