我正在用PyTorch训练一个3D连体网络。当我从iPython (v7.15.0)终端运行代码时,GPU RAM使用率达到最大值1739M:

当我将相同的代码复制到Jupyter笔记本(在Jupyter Lab v2.1.5中)时,GPU RAM使用率为10209M:

Jupyter Lab在相同的Python虚拟环境中从终端运行。
首先,我不明白为什么在Jupyter Lab中运行脚本会使GPU RAM使用率增加近6倍。
其次,与此相关的是,有没有办法让Jupyter Lab在一种使用1739M范围内的GPU RAM的模式下运行?我喜欢拥有围绕代码和输出的所有“文档”的能力。
Python版本3.6.9。
发布于 2020-07-01 19:24:37
好了,现在我意识到当我运行这两个函数时有什么不同。
我的机器上有两个M2000,一个是驱动视频的Quadro GPU,另一个是Titan XP。当我在命令行上运行JupyterLab时,我以jupyter lab身份运行它,但当我运行iPython时,我以CUDA_VISIBLE_DEVICES=0 ipython --pylab身份运行它。在没有CUDA_VISIBILE_DEVICES的情况下,它给了我关于GPUS不匹配的警告。当我在iPython终端中运行时,我之前看到了警告,但当我运行JupyterLab时,我没有看到它们。
所以,这仍然是奇怪的内存使用率的泰坦XP会跳到内存的10G+。
https://stackoverflow.com/questions/62675254
复制相似问题