腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
可以从本地内核使用
TPU
吗?
我正在尝试用
TPU
训练
一个
模型
,但我必须使用Google
Colab
或类似的平台吗?
浏览 19
提问于2020-12-09
得票数 0
2
回答
如何清除
Colab
Tensorflow
TPU
内存
、
、
、
我正在执行几个折叠
模型
。每次折叠后,我想清除
TPU
内存,这样我就不会得到OOM错误。 /usr/local/lib/python3.7/dist-packages/tensorflow/python/distribute/
tpu
_strategy.py_container_strategy(), _real_mirrored_creator,
浏览 13
提问于2021-07-29
得票数 1
回答已采纳
1
回答
在
TPU
上
的
Colab
中
训练
模型
时
出错
我正在尝试建立一个使用TensorFlow
的
GAN,并想在
TPU
上
训练
它。然而,我得到了下面提到
的
错误:“确保插槽变量是
在
相同
的
策略范围下创建
的
。如果你是从作用域之外
的
检查点进行恢复,这可能会发生。”我是TensorFlow
的
新手。我
的
所有变量都是用tf.distribute.experimental.TPUStrategy创建
的
浏览 8
提问于2020-02-14
得票数 2
1
回答
Colab
Pro
在
使用
TPU
Runtime
训练
深度学习
模型
12小
时
后自动断开连接
、
我用了几天
的
CoLab
专业版。我试图
在
CoLab
专业版中使用
TPU
运行时来
训练
一个深度学习
模型
。但是Runtime
在
12小
时
的
训练
后会自动断开。我已经配置了70个时期用于
训练
,它在大约43 - 52个时期停止。我使用Keras/Tensorflow来开发我
的
模型
。在过去
的
三天里,我正在
训练
相同
浏览 0
提问于2021-06-17
得票数 1
1
回答
TF1.14][
TPU
]不能在使用
TPU
的
Colab
上
使用自定义TFrecord数据集
、
、
、
我已经创建了一个包含元素及其对应标签
的
TFRecord数据集文件。我想用它来
训练
使用免费
TPU
的
Colab
模型
。我可以加载TFRecord文件,甚至运行迭代器来查看内容,但是,
在
时代开始之前,它会抛出以下错误: [[RemoteCall]]
浏览 1
提问于2019-09-19
得票数 0
2
回答
如何在不使用GCP
的
情况下在
Colab
中加载用于
TPU
推断
的
数据?
、
、
、
对于
colab
TPU
上
的
训练
模型
,数据需要在GCP存储桶
中
。然而,对于少量
的
数据,我想知道是否可以直接从本地
colab
环境
中
推断数据。
浏览 53
提问于2020-07-29
得票数 1
回答已采纳
1
回答
用GPU代替
TPU
训练
莎士比亚
模型
、
、
、
、
我想看看用
TPU
和GPU
训练
模型
有什么不同。这是
训练
模型
部分: import time tf.keras.backend.clear_session() resolver = tf.distribute.cluster_resolver.TPUClusterResolver(
tpu
='grpc://' + os.environ['
COLAB
_
TPU
_ADDR&
浏览 21
提问于2021-03-26
得票数 3
回答已采纳
1
回答
为什么当我试图转换Keras
时
,Google
Colab
会给出一个“未知设备”错误?
、
、
、
我试着用
TPU
在
google
上
训练
一个简单
的
MLP
模型
。= 'grpc://' + os.environ['
COLAB
_
TPU
_ADDR'] model,(
TPU
_WORKER))) 给
出错
误Invali
浏览 0
提问于2019-03-19
得票数 2
回答已采纳
4
回答
在
Google
Colab
上
设置MLflow
、
、
我经常使用Google
Colab
来
训练
TF/PyTorch
模型
,因为
Colab
为我提供了GPU/
TPU
运行时。此外,我喜欢使用MLflow来存储和比较经过
训练
的
模型
,跟踪进度,共享等。
在
Google
Colab
中使用MLflow有哪些可用
的
解决方案?
浏览 12
提问于2020-05-05
得票数 3
1
回答
在
TPU
上
使用全局批次大小进行培训(tensorflow)
、
、
、
、
我最近在Google
Colab
上
开始了一个神经网络项目,我发现我可以使用
TPU
。我一直
在
研究如何使用它,我发现了tensorflow
的
TPUStrategy (我正在使用tensorflow 2.2.0),并且能够成功地定义
模型
并在
TPU
上
运行
训练
步骤。提供,这意味着每个
TPU
的
批处理大小小于您开始
时
的
批处理大小。
在
Colab
浏览 2
提问于2020-07-09
得票数 2
2
回答
如何在
Colab
TPU
上
释放磁盘空间?
、
、
、
我正在Google
Colab
上
训练
一些深度学习
模型
,运行时类型设置为
TPU
。RAM和磁盘状态显示我已经
在
Colab
上
使用了大部分磁盘存储。有没有办法重置它?或者删除一些东西来释放更多
的
磁盘空间?我知道我可以改用GPU,这会给我更多
的
磁盘空间,然而,我
的
型号需要永远改变,所以我真的想留在
TPU
上
。提前感谢!
浏览 142
提问于2019-11-28
得票数 6
1
回答
“使用strategy.scope():”或者“使用tf.distribute.experimental.TPUStrategy(
tpu
).scope():‘”对NN
的
创建有什么影响?
、
、
在这里
的
代码
中
:https://www.kaggle.com/ryanholbrook/detecting-the-higgs-boson-with-tpus 在编译
模型
之前,使用以下代码创建
模型
:dnn_model=deep, ) 我不明白with strategy.scope()在这里做了什么,以及它是否会以任何方式影响
模型
它到底是做什么
的
? 将来我怎么才能
浏览 108
提问于2020-12-18
得票数 2
回答已采纳
1
回答
在
Colab
TPU
上
运行Pytorch堆叠
模型
、
、
、
、
我正试着
在
Colab
多核
TPU
上
运行我
的
模型
,但我真的不知道怎么做。我尝试了,但我得到了一些错误,我不能修复它,但我认为可能有更简单
的
等待来完成它。关于我
的
模型
: def __init__(self,...): linear_output = self.linear(bert_output)
浏览 2
提问于2020-12-03
得票数 1
1
回答
Keras fit_generator运行得非常慢
、
、
、
我使用以下代码声明了一个Keras
模型
:model.add(tf.keras.layers.LSTM(units=50, activationy_train)执行时间:我现在面临
的
问题是,Keras
的
训练
过程非常缓慢。我对batch_genera
浏览 2
提问于2019-11-02
得票数 2
回答已采纳
1
回答
基于Google
Colab
的
TPU
训练
目标检测
模型
、
我正在按照这里
的
https://towardsdatascience.com/creating-your-own-object-detector-ad69dda69c85指南
训练
一个对象检测
模型
在
Google
Colab
上
,我可以执行以下命令,它利用了GPU python train.py --train_dir=training/ --pipeline_config_path=training/ssd_mobilenet_v1_0.75
浏览 17
提问于2019-12-06
得票数 3
2
回答
使用GOOGLE
COLAB
TPU
在
IMAGENET
上
训练
VGG-16
模型
需要多长时间?
、
、
、
、
只是好奇,
在
IMAGENET
上
使用GOOGLE
COLAB
TPU
训练
VGG16
模型
需要多长时间?如果有人能向我解释他们为了得到答案所做
的
计算,那就太好了!
浏览 2
提问于2019-10-28
得票数 8
1
回答
Keras:对于所有操作,
TPU
模型
必须具有恒定
的
形状。
、
、
、
、
我正在使用一个预先
训练
过
的
keras
模型
,我想通过Google Colaboratory
在
TPU
上
运行它,但是我得到了以下错误: 您可能必须为RNN/时间分布层指定“input_length”。据我所知,当
模型
被编译为解释
的
和
浏览 3
提问于2019-10-29
得票数 6
6
回答
模块“”tensorflow“”没有属性“”contrib“”
我正在尝试使用Tensorflow Object-Detection-API
训练
自己
的
自定义对象检测器 我使用"pip install tensorflow“
在
我
的
google计算引擎
中
安装了tensorflow当我尝试使用train.py
时
,我收到以下错误消息: 回溯(最近一次调用):文件"train.py",第49行,
在
from object
中
_ detection.builders导入数据集 _ 生成器文件obje
浏览 163
提问于2019-04-26
得票数 49
回答已采纳
1
回答
使用Tensorflow 1.x加载使用Tensorflow 2.0保存
的
模型
、
、
他们
在
Tensorflow 2.0
中
为许多架构提供了预先
训练
的
模型
。我想在
TPU
上
使用这些
模型
进行预测。由于TensorFlow2.0
的
TPU
API仍处于实验阶段,因此我想在TensorFlow1.x
中
实现它 有没有办法将预先
训练
好
的
模型
从TensorFlow2.0转换到TensorFlow1.x,反之亦然TensorFlow2.0
的<
浏览 31
提问于2019-10-01
得票数 0
回答已采纳
1
回答
Colab
TPU
上
的
RNN运行速度与本地CPU版本相同
、
、
、
我实现了RNN
的
本地版本和RNN
的
Colab
TPU
版本(代码如下)。当我执行
Colab
TPU
版本(下面的代码)
时
,
训练
速度非常慢,就像我
在
笔记本电脑
的
CPU
上
运行
的
本地版本一样。
Colab
TPU
是否支持RNN网络? 我是不是漏掉了什么?tensorflow.keras.layers import Dense, SimpleRNN reso
浏览 12
提问于2020-08-25
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
在Cloud ML Engine的TPU上从头训练ResNet
PyTorch终于能用上谷歌云TPU,推理性能提升4倍,该如何薅羊毛?
苹果:本公司AI模型在谷歌定制款芯片上训练的。
苹果:本公司AI模型是在谷歌定制款芯片上训练的
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券