我正在尝试使用Keras和RetinaNet训练M-RCNN,就像Keras创始人的例子一样。我安装了retinanet包,但是找不到这个模块。可能是因为我的TF没有使用GPU吧?如何检查呢? from keras_retinanet.utils.gpu import setup_gpu
Traceback (most recent call last):
File "<ipython-input-2-1f3ae263a7c6>", line 1, in <module>
from keras_retinanet.
我有2个GPU GTX1080和Keras v2安装。我在gpu0和gpu1上同时运行两个训练过程。但是,我有ResourceExhaustedError。
少了什么?
python多gpu-process.py --gpu_id=1 (ok)
python process.py --gpu_id=0 (ResourceExhaustedError )。(请帮忙)
# file: multi-gpu-process.py (2 training processes work on different GPUs)
import numpy as np
import os
我想比较使用gpu和不使用gpu时代码的处理时间。我的keras后端是Tensorflow。所以它会自动使用GPU。我使用keras/examples/mnist_mlp.py模型进行比较。
我像下面这样检查了处理时间。那么,如何禁用我的GPU呢?是否应该修改~/.keras/keras.json?
$ time python mnist_mlp.py
Test loss: 0.109761892007
Test accuracy: 0.9832
python mnist_mlp.py 38.22s user 3.18s system 162% cpu 25.543 total
autoencoder_layers.py
import theano
from keras import backend as K
from keras.backend.theano_backend import _on_gpu
from keras.layers.convolutional import Convolution2D, UpSampling2D
from keras.layers.core import Dense, Layer
from theano import tensor as T
from theano.sandbox.cuda import dnn
但是我得到了
当尝试在三个GPU中使用Keras时,我遇到了一个问题。
我的psuedocode如下:
import keras
import keras.models as M
from keras.utils import multi_gpu_model
i = M.Input(None,None,6)
o1,o2,o3 = my_Network(i)
net = M.Model(inputs = i, outputs = [o1,o2,o3])
net = multi_gpu_model(net,gpus = 3)
net.compile( ~~~~~ )
net.fit(~~~~~ )
假设我有一个像这样的角面模型:
with tf.device("/CPU"):
model = tf.keras.Sequential([
# Adds a densely-connected layer with 64 units to the model:
tf.keras.layers.Dense(64, activation='relu', input_shape=(32,)),
# Add another:
tf.keras.layers.Dense(64, activation='relu'),
我正在开发一个基于旧版本Keras的模型,当我想使用多gpu时,他们会按如下方式导入:
from keras.utils import multi_gpu_model
multi_model = multi_gpu_model(myModel, gpus=args.gpus)
我已将导入更改为:
from tensorflow.keras import utils as multi_gpu_model
这会给我带来一个错误:
multi_model: TypeError: 'module' object is not callable
我跟踪了Jeff的youtube视频,用GPU安装了tensorflow。我有Eva nivida GTX 1660 Ti。之后,它显示GPU是不可用的。有什么不对劲的地方吗?谢谢
# What version of Python do you have?
# What version of Python do you have?
import sys
import tensorflow.keras
import pandas as pd
import sklearn as sk
import tensorflow as tf
print(f"Tensor Flow Versi
我在Linux中拥有TensorFlow,NVIDIA (CUDA)/CPU,Keras &Python3.7。根据本教程,我遵循了所有步骤:
在运行以下代码时:
# What version of Python do you have?
import sys
import tensorflow.keras
import pandas as pd
import sklearn as sk
import tensorflow as tf
print(f"Tensor Flow Version: {tf.__version__}")
print(f"Keras
任何有使用vast.ai进行云计算的经验的人都知道,当租用多个GPU时,您需要做一些设置来利用额外的GPU吗?
因为当租用6或8个GPU而不是仅仅一个GPU时,我不会注意到速度上的任何差异。我刚开始使用vast.ai进行云计算。
我使用的是默认的码头:用于深度学习框架TensorFlow ()的正式对接图像。
成功加载了tensorflow/tensorflow:夜-GPU-py3
然后再安装keras:
pip install keras
我还使用此方法检查了可用的GPU,所有GPU都被正确检测到:
from keras import backend as K
K.tensorflow_b