我正在使用 tf.data 数据集,其中包含由(比方说)100k 图像组成的训练数据。我还使用包含我的验证集的 tf.data 数据集。由于所有 100k 图像的 epoch 需要相当长的时间(在我的例子中大约一小时)才能获得验证集性能的任何反馈,因此我将steps_per_epoch
tf.keras.Model 中的参数设置fit()
为10000
。使用批量大小为 1 的结果是,当图像数量达到 100k 时,验证分数为 10。为了完成整个训练数据集的 10 万张图像的一个 epoch,我将参数设置epochs
为10
但是,我不确定使用steps_per_epoch
andepochs
这种方式是否会产生任何其他后果。使用这些参数以获得更频繁的性能反馈是否正确?还有一个更具体的问题,它是使用所有 100k 图像还是在每个“时期”使用我的训练集的相同前 10k 图像?我已经深入研究了TensorFlow 文档并阅读了几个不同的堆栈溢出问题,但我找不到任何结论性的东西来回答我自己的问题。希望您能帮忙!
我使用的Tensorflow版本是2.2.0。
喵喵时光机
相关分类