最近,我对将分布式培训整合到我的Tensorflow项目中产生了兴趣。我正在使用Google Colab和Python3来实现一个带有定制的、分布式的训练循环的神经网络,如本指南中所述:
在“创建分发变量和图形策略”部分的指南中,有一些代码的图片,这些代码基本上设置了一个据我所知,输出表明MirroredStrategy只创建了模型的一个副本,因此,只有一个GPU将用于训练模型。我的问题是: Google Colab是否仅限于在单个GPU</e
我正在colab Pro GPU上运行一个Convnet。我在运行时选择了GPU,可以确认GPU是可用的。我运行的网络和昨天晚上完全一样,但每次运行大约需要2小时。我有一种感觉,colab可能限制了我的GPU的使用,但我不知道如何判断这是否是问题所在。GPU的速度会因时间等而波动吗?我还试着把colab中的加速器换成“None”,我的网络速度和选择的GPU一样快,这意味着由于某种原因,我不再在<em
我试图在R中训练一个带有角角的CNN,我有一个时间序列,它是三维的,所以每个样本都有尺寸95 x 365,有80个特征,我把它们作为频道输入。输出值仅为1。问题是网速太慢了。用400个样本训练1次,只需33分钟。这个体系结构非常简单(实际上我有一个更深的网,但是由于它太慢了,所以我简化了它,看它是否有用): model %>%