我有一台安装了 cuda 10.1 和 tensorflow 和 tensorflow gpu 1.14.0 的机器。我正在运行一个在 virtualenv 中训练 CNN 的 python 脚本。我在源代码中表示我要使用GPU,如下:
import osos.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID";os.environ["CUDA_VISIBLE_DEVICES"]="0";
但是,当我运行脚本时,训练阶段需要很多时间才能完成。这是我的 nvidia-smi 的输出:
我认为奇怪的是为什么 GPU 利用率如此之低以及为什么我的 python 脚本没有出现在进程列表中。以下是我尝试过的一些命令的输出:
>>> import tensorflow as tf>>> sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
输出是
2019-10-14 09:53:12.674719: I tensorflow/core/platform/cpu_feature_guard.cc:142] 您的 CPU 支持未编译此 TensorFlow 二进制文件以使用的指令:AVX2 FMA 2019-10-14 09:53:12.679047 : I tensorflow/stream_executor/platform/default/dso_loader.cc:42] 成功打开动态库 libcuda.so.1 2019-10-14 09:53:12.784993: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc:1005] 成功从 SysFS 读取的 NUMA 节点为负值(-1),但必须至少有一个 NUMA 节点,所以返回 NUMA 节点为零 2019-10-14 09:53:12.785744: I tensorflow/compiler/xla/service/service. cc:168] XLA 服务 0x55f155c59650 在平台 CUDA 上执行计算。设备:2019-10-14 09:53:12.785771:I tensorflow/compiler/xla/service/service.cc:175] StreamExecutor 设备(0):GeForce RTX 2080 Ti,计算能力 7.5 2019-10-14 09:53:12.806453:I tensorflow/core/platform/profile_utils/cpu_utils.cc:94] CPU 频率:3600000000 Hz 2019-10-14 09:53:12.807345:I tensorflow/compiler/ xla/service/service.cc:168] XLA 服务 0x55f15605dfc0 在平台主机上执行计算。设备:2019-10-14 09:53:12.807408:I tensorflow/compiler/xla/service/service.cc:175] StreamExecutor 设备(0):,2019-10-14 09:53:12.807829:I tensorflow/stream_executor /cuda/cuda_gpu_executor.cc:1005] 从 SysFS 读取的成功 NUMA 节点具有负值 (-1),但必须至少有一个 NUMA 节点,因此返回 NUMA 节点零 2019-10-14 09:53:12.808859: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1640] 找到具有属性的设备 0:名称:GeForce RTX 2080 Ti 主要:7 次要:5 memoryClockRate(GHz):1.545 pciBusID:0000:2019-10-14 01:00.0 09:53:12.809148:我
守着一只汪
Smart猫小萌
相关分类