我正在上一门课程PyTorch。我想知道为什么我们需要单独告诉torch.utils.data.DataLoader输出它在什么设备上运行。如果模型已经打开,CUDA为什么它不相应地自动更改输入?这种模式对我来说似乎很有趣:
model.to(device)
for ii, (inputs, labels) in enumerate(trainloader):
# Move input and label tensors to the GPU
inputs, labels = inputs.to(device), labels.to(device)
是否有一个用例,我想让模型在 GPU 上运行,但我的输入是在 CPU 模式下,反之亦然?
相关分类