我想了解以下差异背后的架构直觉:
tf.keras.layers.Conv2D(64, (3,3), activation='relu', input_shape=(28, 28, 1))
和
tf.keras.layers.Conv2D(32, (7,7), activation='relu', input_shape=(28, 28, 1))
假设,
随着内核大小的增加,可以在卷积步骤中执行更复杂的特征模式匹配。
随着特征尺寸的增加,较小特征的较大方差可以定义特定层。
我们如何以及何时(如果可能的话请提供场景)在抽象层面上证明权衡的合理性?
喵喔喔
相关分类