这是个很严峻的问题,每次跑代码,内存就炸了,gpu还没开始用呢,看一些博客上是这样说的:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "2"#这里的数字代表第几块显卡
查看有几块显卡及显卡的使用情况可以用命令
nvidia-smi
但是,我试了一下,不太ok。
卸载cpu版本的tensorflow,重新安装gpu版本的
好不容易装上的,如果可以用其他的方法,那么我还是想试一下的。
正在探讨中,找到了再补充在这个博客中
还有一个很有意思的是,你怎么知道你的某个环境用的是cpu还是gpu:
我引用一下,原文出自https://blog.csdn.net/weixin_37251044/article/details/79790270
import numpy
import tensorflow as tf
a = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[2, 3], name='a')
b = tf.constant([1.0, 2.0, 3.0, 4.0, 5.0, 6.0], shape=[3, 2], name='b')
c = tf.matmul(a, b)
sess = tf.Session(config=tf.ConfigProto(log_device_placement=True))
print(sess.run(c))
然后就可以看到信息就可以看到是gpu还是cpu了
Device mapping:
/job:localhost/replica:0/task:0/device:GPU:0 -> device: 0, name: Tesla K40c, pci bus
id: 0000:05:00.0
b: /job:localhost/replica:0/task:0/device:GPU:0
a: /job:localhost/replica:0/task:0/device:GPU:0
MatMul: /job:localhost/replica:0/task:0/device:GPU:0
[[ 22. 28.]
[ 49. 64.]]