以前我认为较小的 batch_size 会导致更快的训练,但在 keras 的实践中,我收到了相反的结果,即更大的 batch_size 会使训练更快。
我正在实现一个示例代码,通过增加batch_size 的数量,训练变得更快。这与我以前普遍认为的相反(较小的 batch_size 会导致更快的训练),这是示例代码:
# fit model
import time
start = time.time()
history = model.fit(trainX, trainy, validation_data=(testX, testy), epochs=1000,
batch_size= 500 , verbose=0)
end = time.time()
elapsed = end - start
print(elapsed)
我将 500、250、50 和 10 分别作为 batch_size,我希望较低的 batch_size 训练速度更快,但是 batch_size 500 的结果是 6.3 秒,250 个结果是 6.7 秒,50 个结果是 28.0 秒,10 个结果是 140.2 秒! !!
繁花不似锦
慕标琳琳
相关分类