我训练了一个模型,得到了不错的结果,但后来我变得贪婪,我想要更高的准确性,所以,我训练模型的时间越来越长,越来越长,但无济于事,什么也没有发生!根据理论,在某些时候,验证准确度必须在训练过多后开始下降(损失开始增加)!但这似乎从未发生过。所以,我想可能是神经网络太简单而无法过拟合,所以我增加了它的容量,最终得到了数百万个参数,我训练了 10,000 个 epoch,仍然没有发生过拟合。
这里问了同样的问题,但那里的答案并不令人满意。
这意味着什么?
繁花不似锦
相关分类