我正在处理迁移学习问题。当我仅从 Mobilenet 创建新模型时,我设置了一个 dropout。
base_model = MobileNet(weights='imagenet', include_top=False, input_shape=(200,200,3), dropout=.15)
x = base_model.output
x = GlobalAveragePooling2D()(x)
x = Dense(10, activation='softmax')(x)
我在训练时使用model_checkpoint_callback. 当我训练时,我会发现过度拟合发生的地方,并调整冻结层的数量和学习率。当我再次保存加载的模型时,我是否也可以调整 dropout?
我看到了这个答案,但是 Mobilenet 中没有实际的 dropout 层,所以这个
for layer in model.layers:
if hasattr(layer, 'rate'):
print(layer.name)
layer.rate = 0.5
什么都不做。
UYOU
相关分类