来自“医学图像计算的深度学习和卷积神经网络”一书
当我们了解到深度学习的研究现状时,我惊讶地发现,在过去的22、23中,其他研究者使用了卷积神经网络,这是一种深度学习。但最新的一批深度学习算法似乎有不同之处。他们经常使用GPU处理accelerate training by as much as a factor of 40-fold。它们还使用了多个卷积层和多个数据约简层。
40-fold的意思是“K折叠交叉验证”吗?
我阅读了许多关于在TensorFlow中使用多个GPU的文章和帖子。它帮助我学习了更多关于“如何使用并行GPU来训练神经网络”(how to use parallel GPU to train ( here network))。但我有一个不同的问题。可以使用单独的GPU同时训练不同的NN吗? 更多详细信息: 我有神经网络A,B,和GPU1,GPU2。我想同时在GPU1上训练A NN,在GPU2上训练B NN。有可能吗?
我用tensorflow制作了神经网络,但tensorflow-gpu比cpu慢! tensorflow 2.1和tensorflow-gpu 2.1的总运行(训练)时间分别为130秒和330秒 我的CPU是i7-第7代,而GPU是geforce-930M(笔记本电脑环境)这是因为我的GPU比CPU慢吗?如果是,我是否可以设置为仅在适当的情况下自动运行GPU? (CUDA环境似乎设置适当,我还手动检查了tensorflow 2.1仅使用CPU,而tensorflow-gpu 2.1同时使用CPU和GPU。) 更新:我的神经网络的大小是64 x 32 x 16 x 1(可能不适合并行执行),在
我对python中的神经网络( NN )完全陌生,我不知道NN是否能在raspberry pi 3中运行?因为我认为问题在于神经网络在训练、数据传输和计算方面需要良好的CPU/GPU性能。
那么,用单类训练数据训练神经网络是可能的吗?为了节省CPU/GPU?
例如,我希望系统只检测图像中的海参。一个好的答案/解释或链接到任何例子将是非常感谢的。谢谢你,PO
我正在尝试创建一个卷积神经网络来使用Julia中的Flux对MNIST数据进行分类。我从以下链接下载了csv格式的数据:。我的代码如下:
using CSV
using DataFrames
using Images
using Base.Iterators: partition
using Flux
sqrt(x) = convert(Int64, floor(x^0.5))
matrixize(x) = cat([x[i:i+sqrt(length(x))-1] for i in 1:sqrt(length(x)):length(x)]..., dims=2)'
img(x) =
我有一个Geforce GT 540 M,我的笔记本电脑使用擎天柱,所以它将“切换”之间的英特尔GPU和Geforce GPU取决于应用程序/设置等。
据我所知,在打开窗口时,它返回false:
if( !glfwOpenWindow( 1024, 768, 0,0,0,0, 32,0, GLFW_WINDOW ) )
{
fprintf( stderr, "Failed to open GLFW window. If you have an Intel GPU, they are not 3.3 compatible. Try the 2.1 version of the
我使用GPU计算了神经网络和torch.cuda.FloatTensor (两者都存储在GPU中)输出的点积,但得到了一个错误:
TypeError: dot received an invalid combination of arguments - got (torch.cuda.FloatTensor) but expected (torch.FloatTensor tensor).
密码就像
p = torch.exp(vector.dot(ht))
这里的矢量是torch FloatTensor,ht是神经网络的输出。
我和这些东西斗争了好几天,但还是不知道。谢谢您的任何可能的解决方