我在研究分布式Tensorflow。
# Create and start a server for the local task.
server = tf.train.Server(cluster,
job_name=FLAGS.job_name,
task_index=FLAGS.task_index)
if FLAGS.job_name == "ps":
server.join()
当我只启动一台ps服务器时。我看到它使用了所有的GPU和所有的GPU内存。
(我的环境:2个特斯拉K80 GPU)
+------------------
我想要并行化我的Python代码,并且我正在尝试使用PyCuda。到目前为止,我所看到的是,您必须在Python代码中使用C语言编写一个“内核”。这个内核就是将要并行化的东西。我说的对吗?示例(将随机数数组加倍,来自):
import pycuda.driver as cuda
import pycuda.autoinit
from pycuda.compiler import SourceModule
import numpy
a = numpy.random.randn(4, 4)
a = a.astype(numpy.float32)
a_gpu = cuda.mem_alloc(a.n
我希望指定要运行我的进程的gpu。我把它设为:
import tensorflow as tf
with tf.device('/gpu:0'):
a = tf.constant(3.0)
with tf.Session() as sess:
while True:
print sess.run(a)
但是,它仍然在我的两个gpus中分配内存。
| 0 7479 C python 5437MiB
| 1 7479 C python
我在安装了AMD SDK for OpenCL (最新版本)的Linux上运行AMD Radeon GPU。
现在,当我没有通过GDM登录时(当主X服务器没有运行时),没有AMD GPU可用,所以所有的计算都将由CPU完成。当我通过GDM登录时(主x服务器正在运行),当我在python中使用以下程序列出GPU时,会出现GPU(仅显示核心部分):
for platform in cl.get_platforms():
for device in platform.get_devices():
print("=============================
在之后,我运行了:
# confirm TensorFlow sees the GPU
from tensorflow.python.client import device_lib
assert 'GPU' in str(device_lib.list_local_devices())
# confirm Keras sees the GPU
from keras import backend
assert len(backend.tensorflow_backend._get_available_gpus()) > 0
# confirm PyTorch sees
我正在测试一个使用tf.nn.conv2d的TensorFlow程序,但出现如下错误:
2018-09-18 01:33:54.908161: I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2 FMA
2018-09-18 01:33:54.987724: I tensorflow/stream_executor/cuda/cuda_gpu_executor.cc
我正尝试在研究所提供的GPU服务器上运行r脚本。GPU服务器规格如下:
Host Name: gpu01.cc.iitk.ac.in,
Configuration: Four Tesla T10 GPUs added to each machine with 8 cores in each
Operating System: Linux
Specific Usage: Parallel Programming under Linux using CUDA with C Language
R代码:
setwd("~/Documents/tm dataset")
libra
最近,我工作的Ubuntu18.04服务器已经从2.0.0升级到TensorFlow版本2.4.0。它开始在访问GPU时出现问题,而GPU以前运行得很好。我注意到pip list现在在我的jupyter笔记本上有两个版本可用。我还尝试了tf.test.gpu_device_name(),它没有返回任何内容。以前,我使用以下代码为我的代码分配GPU:
import os
os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID" # see issue #152
os.environ["CUDA_VISIBLE_DEVIC