猿问

为什么我们需要 image.to('CUDA') 当我们有 model.to('CUDA')

我正在上一门课程PyTorch。我想知道为什么我们需要单独告诉torch.utils.data.DataLoader输出它在什么设备上运行。如果模型已经打开,CUDA为什么它不相应地自动更改输入?这种模式对我来说似乎很有趣:


model.to(device)


for ii, (inputs, labels) in enumerate(trainloader):


    # Move input and label tensors to the GPU

    inputs, labels = inputs.to(device), labels.to(device)

是否有一个用例,我想让模型在 GPU 上运行,但我的输入是在 CPU 模式下,反之亦然?


扬帆大鱼
浏览 249回答 1
1回答
随时随地看视频慕课网APP

相关分类

Python
我要回答