https://blog.csdn.net/jiandanjinxin/article/details/77519629
借用了上面博主对tf.nn.conv2d的参数说明,想看更详细的可以看原文。
tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要
tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)
除去name参数用以指定该操作的name,与方法有关的一共五个参数:
第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_height, in_width, in_channels]这样的shape,具体含义是
[训练时一个batch的图片数量, 图片高度, 图片宽度, 图像通道数],注意
这是一个4维的Tensor,要求类型为float32和float64其中之一
第二个参数filter:相当于CNN中的卷积核,
它要求是一个Tensor,具有
[filter_height, filter_width, in_channels, out_channels]这样的shape
,具体含义是[卷积核的高度,
],要求类型与参数input相同,有一个地方需要注意,第三维卷积核的宽度,图像通道数,卷积核个数
,就是参数input的第四维in_channels
第三个参数strides:卷积时在图像每一维的步长,这是一个一维的向量,长度4
第四个参数padding:string类型的量,只能是"SAME","VALID"其中之一,这个值决定了不同的卷积方式(后面会介绍)
第五个参数:use_cudnn_on_gpu:bool类型,是否使用cudnn加速,默认为true
结果返回一个Tensor,这个输出,就是我们常说的feature map,shape仍然是
[batch, height, width, channels]
这种形式。
针对padding的两种方法做一解释:(不明白可以去网易云课堂看吴恩达老师的deep learning 免费的)
首先我们要明白卷积操作有两个问题:
1. 图像越来越小;
2. 图像边界信息丢失,即有些图像角落和边界的信息发挥作用较少。
这个函数对应的两种方法:
1.VALID:不进行填充
2.SAME:用0填充,保证输入输出图像大小一致。
输出图像的维度计算公式为
(n+2p-f+1)/s=n
p=(f-1)/2
n为输入或者输出的维度(图片大小),p为padding,s为步长,f为filter的维度(大小)
卷积核大小通常为奇数
1.方便same卷积padding对称填充,左右两边对称补零;
2.奇数过滤器有中心像素,便于确定过滤器的位置。