如何让 Keras 在特定 GPU 上训练模型?

我所在的机构有一台带有 2 个 GPU 的共享服务器。假设有两个团队成员都想同时训练一个模型,那么他们如何让 Keras 在特定的 GPU 上训练他们的模型以避免资源冲突?

理想情况下,Keras 应该找出当前哪个 GPU 正在忙于训练模型,然后使用另一个 GPU 来训练另一个模型。然而,情况似乎并非如此。似乎默认情况下,Keras 只使用第一个 GPU(因为Volatile GPU-Util第二个 GPU 的 总是 0%)。

哔哔one
浏览 227回答 3
3回答
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python