腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
GPU
/
TPU
上
的
PyCaret
方法
、
、
、
、
当我运行best_model = compare_models()
的
时候,CPU内存上有很大
的
负载,而我
的
GPU
却没有被利用。如何在图形处理器
上
运行setup()或compare_models()?在
PyCaret
中有内置
的
方法
吗?
浏览 64
提问于2021-05-18
得票数 1
回答已采纳
1
回答
Pycaret
()
方法
抛出NameError
、
如果我尝试执行:models()Traceback (most recent call last):File "/home/user/.local/lib/python3.8/site-packages/
pycaret
/regression.py", line 2088,in models return
浏览 8
提问于2021-10-08
得票数 0
1
回答
GPU
与
TPU
的
卷积神经网络(NLP)
、
我正在测试关于IMDB情感分析任务
的
想法,使用word嵌入+ CNN
方法
。尽管
TPU
的
计算能力被认为比
GPU
优越,但如何解释
GPU
(每小时~9秒)与
TPU
(~17秒/时代)在计算时间
上
的
显著差异?
浏览 0
提问于2020-07-04
得票数 1
2
回答
在Google Colab中,有没有一种编程
方法
可以检查我连接
的
是
gpu
或
tpu
环境?
、
、
、
在Google Colab中,有没有一种编程
方法
可以检查我连接
的
是
gpu
或
tpu
环境? 例如,我可以使用下面的代码检查它是否在
tpu
运行时下。但是什么是'
gpu
‘运行时呢?导入操作系统 os.environ中
的
tpu
_good_to_go = "COLAB_
TPU
_ADDR“
浏览 60
提问于2021-07-12
得票数 0
1
回答
利用Kaggle
的
免费
GPU
和
TPU
、
如何在Kaggle
上
运行Python代码,而不将其组织到单个笔记本或脚本中?以下是我试图实现
的
目标:我有几个包含类定义和应用程序逻辑
的
Python脚本,我希望在Kaggle
上
按原样运行它们,并利用它们免费提供
的
GPU
和
TPU
。我不想把所有东西都转换成一个单独
的
.ipynb或.py文件,因为每个脚本中都有几个import语句(需要修复),所以它会变得非常混乱,尽管这似乎是唯一
的
方法
。在利用
GPU
浏览 35
提问于2020-09-03
得票数 0
2
回答
任何经历过关于谷歌协作
的
警告的人:您已连接到
GPU
运行时,但未使用
GPU
、
、
这一警告已经持续了三个星期。我想知道这个解决方案。
浏览 1
提问于2020-04-22
得票数 8
回答已采纳
2
回答
有没有
tpu
_trainer_lib
的
替代品?
、
、
我一直在尝试在本地运行谷歌
的
tensor2tensor (),但当它运行到下面这一步时,它就卡住了:这就说得通了,因为我
的
Mac里没有
TPU
。有没有替代该功能
的
方法
?ModuleNotFoundError: No module named 'tensor2tensor.
tpu
'
浏览 15
提问于2018-02-06
得票数 0
回答已采纳
2
回答
我
的
程序如何打印它正在使用
的
设备{ CPU、
GPU
、
TPU
}?
、
、
、
我正在尝试运行一个用Python/Tensorflow编写
的
深度神经网络分段程序,运行在Kaggle下。我试图了解如何控制在后台运行
的
设备保存版本。第一步是能够看到我正在运行
的
设备-- CPU、
GPU
或
TPU
。我
的
Python程序如何确定当前正在使用
的
设备?
浏览 6
提问于2021-01-16
得票数 2
1
回答
colab
上
TPU
的
规格
如何在colab
上
查看
TPU
的
规格,对于
GPU
,我可以使用以下命令 nvidia-smi 但是它不适用于
TPU
,我怎样才能看到
TPU
的
规格?
浏览 32
提问于2020-04-19
得票数 3
2
回答
TensorFlow Lite for Microcontrollers支持Google吗?
、
、
、
、
我想做
的
是设计一个裸金属(没有操作系统,所以没有Python等)嵌入式系统采用Cortex-M单片机,并使用
TPU
加速使用TFLM
的
图像分类器。但不幸
的
是,它仍然“即将到来”,我没有找到任何其他有用
的
信息或类似的项目在网上。作为一个官方产品,我认为TFLM应该支持边缘
TPU
,但我不知道它现在是否已经被支持,或者也许它将在未来只有在开发板微发布时才会被支持。我试着看看TFLM
的
回购,在第56行我发现了以下内容: kTfLiteEdgeTpuContext = 2,
浏览 21
提问于2022-03-23
得票数 0
1
回答
将feed_dict tf.session和tf.graph重写为estimator
我有一些代码,这是写与feed_dict
的
tf.Session和tf.Graph
的
低级应用程序接口,因为我想使用它在
TPU
上
,我正在尝试重写成tf.Estimator应用程序接口class my_
tpu
_class(object): // ...code to initializeself.phasePH:True, self.dropoutRatePH:se
浏览 1
提问于2018-09-14
得票数 0
1
回答
在
TPU
上
训练时,验证损失变为nan,但在
GPU
上
完全正常
、
、
、
、
我在使用
GPU
和
TPU
的
google colab训练中遇到了一个相当奇怪
的
问题,我使用了一个自定义损失,它可以在
GPU
上
使用tfrecord数据集,但如果我切换到
TPU
,就会给出nan作为验证损失。没有其他特定
的
错误。此外,较旧
的
验证tfrecord数据集在
TPU
上
运行良好。这让我觉得数据中可能有一些特定
的
东西。这显示在model.evaluate
上
(...)也是
浏览 31
提问于2020-09-27
得票数 1
3
回答
Google
上
GPU
的
Tensorflow
、
、
、
我有一个关于使用tensorflow
的
谷歌机器学习
的
模型,这是可以
的
。现在我想用
GPU
做一些预测。我看到了这个,但是它讲述了使用
GPU
进行训练
的
过程,而不是预测。在预测会话中,
GPU
没有任何信息。有人知道用
GPU
用谷歌机器学习引擎做预测
的
可能性吗?或者,如果我使用
GPU
的
训练,我
的
预测自动运行与
GPU
?我使用以下命令行: gcloud ml-engine pred
浏览 1
提问于2017-05-10
得票数 4
回答已采纳
1
回答
Tensorflow XLA和Tensorflow Lite / Android有什么区别?
、
、
、
我对XLA
的
理解是,只要有LLVM ->设备支持,这是朝着支持通用加速设备迈出
的
一步。Tensorflow lite是最近发布
的
,取代了Tensorflow Mobile,它
的
工作重点似乎是针对嵌入式和移动设备,显然侧重于将嵌入式DSP和
GPU
作为这些环境中常见
的
可选处理器。Tensorflow lite似乎将操作交给了Android (神经网络API),并支持tensorflow OPs
的
一个子集。,这就引出了一个问题,:谷歌将向哪个方向支持非基于数据自动化系统
浏览 2
提问于2018-12-06
得票数 4
回答已采纳
1
回答
TPU
和
GPU
的
结果不同。
、
、
、
、
我用
的
是预先训练过
的
伯特模型和火把。我使用了相同
的
数据集,同样
的
种子。背景
的
不同是这样
的
:pytorch version: torch 1.5(
gpu
) vs torch 1.10& tor
浏览 1
提问于2021-11-05
得票数 3
3
回答
基于Google
的
TPU
定制芯片
、
、
当使用TensorFlow时,哪种类型
的
硬件被用作Google
的
一部分?只有CPU或张量处理单元(自定义卡)也可用? cf这个
浏览 4
提问于2016-10-14
得票数 1
回答已采纳
1
回答
这个模型花费了太多
的
时间来训练一个大型
的
新闻数据集。
、
、
、
、
我有一个包含大约300 000条新闻描述
的
大型新闻数据集。我正在应用动态主题建模,使用gensim lda序列模型,每年有11个时间切片。每篇新闻文章
的
平均长度约为3200字。我将该模型应用于1500条消息
的
简化数据集,并将其划分为7个时间片,以检查完成所需
的
时间。,1500条带有7个时间切片
的
消息用了将近80分钟
的
时间完成了Colab、
TPU
和12 to内存
的
培训。这意味着,包含近300 k条消息
的
数据集将需要大量时间才能完成。有没
浏览 7
提问于2022-08-26
得票数 0
1
回答
获取最后4层BERT
的
输出(Tensorflow)
、
、
、
、
我浏览了Andreas Poyiatzis发布在towardsdatascience.com
上
的
文章。下面是这篇文章
的
链接。 生成
的
嵌入是通过使用
TPU
生成
的
。但我想在不支持
TPU
的
本地计算机上运行它。有人能告诉我如何在CPU
上
运行相同
的
代码吗?您
的
帮助我们将不胜感激。谢谢!
浏览 0
提问于2020-02-03
得票数 0
1
回答
tensorflow错误:“在恢复模型时没有注册OpKernel以支持Op 'TPUReplicatedInput'”
、
、
、
、
我有一个预先训练(BigGAN)
的
tensorflow模型,另一个用户开发这个模型来创建图像,我想用它来生成新
的
图像。(如果这有助于简化流程,我不需要对模型进行进一步
的
培训;我只想从最后一个检查点进行示例。)of-00001model.ckpt-607250.meta我一直试图使用Google (启用
TPU
='grpc://' + os.environ['COLAB_
浏览 9
提问于2020-08-20
得票数 4
1
回答
如何防止TPUEstimator使用
GPU
或
TPU
、
我有一台租来
的
谷歌机器,
GPU
已经在运行训练了。因为
GPU
是空闲
的
,所以我想启动第二个Tensorflow会话进行评估,但我想强制评估周期只使用
GPU
,这样它就不会窃取
GPU
时间。我假设在run_config或类似的文件中有这样做
的
标志,但我很难在TF文档中找到一个。run_config = tf.contrib.
tpu
.RunConfig( master=F
浏览 79
提问于2019-04-06
得票数 2
点击加载更多
相关
资讯
在Cloud ML Engine的TPU上从头训练ResNet
开源、低代码机器学习库PyCaret 2.0 现已发布
苏州仰思坪半导体申请在TPU芯片上的数据处理相关专利,提升了在TPU芯片上生成伪随机数的效率
仅需1/5成本:TPU是如何超越GPU,成为深度学习首选处理器的
调包侠神器2.0发布,Python机器学习模型搭建只需要几行代码
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券