我所在的机构有一台带有 2 个 GPU 的共享服务器。假设有两个团队成员都想同时训练一个模型,那么他们如何让 Keras 在特定的 GPU 上训练他们的模型以避免资源冲突?
理想情况下,Keras 应该找出当前哪个 GPU 正在忙于训练模型,然后使用另一个 GPU 来训练另一个模型。然而,情况似乎并非如此。似乎默认情况下,Keras 只使用第一个 GPU(因为Volatile GPU-Util第二个 GPU 的 总是 0%)。
Volatile GPU-Util
相关分类