腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8039)
视频
沙龙
2
回答
Torchscript与
TensorRT
的实时推理
、
、
、
我已经训练了一个对象检测
模型
,用于生产实时应用程序.我有以下两个选择。有人能建议什么是最好的方式运行Jetson的最佳性能推断吗?任何其他建议也是受欢迎的。将
模型
转
换为
ONXX格式并与
TensorRT
一起使用 将
模型
保存为Torchscript并在C++中运行推理
浏览 9
提问于2021-02-08
得票数 2
2
回答
如何将
pytorch
模型
转
换为
TensorRT
?
、
、
、
、
我已经在Nvidia GPU上训练了分类
模型
,并保存了
模型
权重(checkpoint.pth)。如果我想在jetson nano中部署这个
模型
并对其进行测试。 我应该把它转换成TenorRT吗?
如何将
其转
换为
TensorRT
? 我对此还不熟悉。如果有人能纠正我,那将是很有帮助的。
浏览 54
提问于2021-04-21
得票数 0
1
回答
将经过tensorflow训练的神经网络部署到torch C++的最佳方式是什么?
、
、
、
我正在做一个项目,在这个项目中我需要用
PyTorch
在C++中转发网络。网络的权重需要从Tensorflow中训练的
模型
导入。我将使用火炬编写网络的C++版本,但由于一些问题,我不能在火炬中训练网络。
浏览 1
提问于2020-05-13
得票数 0
1
回答
ONNX和
TensorRT
模型
中的参数和FLOPS的数量
、
、
、
将
模型
从
PyTorch
转
换为
ONNX或
TensorRT
格式时,参数和FLOPS (每秒浮点操作数)的数量是否会发生变化?
浏览 19
提问于2021-11-24
得票数 0
1
回答
jetson nano上
TensorRt
模型
(
pytorch
->onnx>
TensorRT
)的准确性降低
、
、
、
我在jetson nano上推断
TensorRt
模型
。它通过onnx从
pytorch
转换而来。在推理时,
TensorRt
模型
的精度已经急剧下降。它是一个目标检测类型的
模型
。代码链接:https://github.com/NVIDIA/
TensorRT
/issues/467
浏览 124
提问于2020-03-31
得票数 0
回答已采纳
2
回答
如何将
原始的yolo权重转
换为
TensorRT
模型
?
、
、
我开发了一个改进版本的yolov4 4-微型
模型
。我想将这个已开发的
模型
转换成一个
TensorRT
模型
,但是在参考了附加的URL之后,我发现我只能转换原来的v4-微型
模型
。我的问题是,其他人
如何将
他们的原始
模型
转
换为
TensorRT
? 提前谢谢你。
浏览 16
提问于2022-04-06
得票数 0
3
回答
如何将
OneHot包含在来自
PyTorch
的ONNX中
、
、
、
我正在使用
PyTorch
训练神经网络并将它们输出到ONNX中.我在索引中使用这些
模型
,该索引通过
TensorRT
加载ONNX。我需要一些特性的一个热编码,但这真的很难在Vespa框架内实现。如果是这样的话,我应该如何基于
PyTorch
模型
来实现这一点?我已经注意到两件事: 基于
PyTorch<
浏览 17
提问于2021-03-09
得票数 3
回答已采纳
1
回答
如何使用trtexec作为python中的子进程
、
、
、
、
我有一个python程序,在.py文件中有以下代码片段,它使用trtexec将ONNX
模型
转
换为
TRT引擎: subprocess.run([sys.executable, "-c", "trtexec --onnx=rmpx.onnx --saveEngine=rmpx_engine_
pytorch
.trt --explicitBatch --fp16"]) subprocess.run([sys.executable, "-c&quo
浏览 6
提问于2021-06-13
得票数 0
1
回答
在CUDA GPU上运行火炬量化
模型
、
、
我对在CUDA上运行int8量化
模型
是否可能感到困惑,或者您是否只能在CUDA上使用fakequantise来训练量化
模型
,以便在另一个后端(如CPU )上部署。我想用实际的int8指令而不是FakeQuantised float32指令在CUDA上运行该
模型
,并享受效率的提高。比托尔医生对这件事没有什么特别的解释。如果有可能在CUDA上使用不同的框架(如TensorFlow )运行量化
模型
,我很想知道。model_quantised = quantize
浏览 0
提问于2021-10-26
得票数 2
1
回答
Onnx to trt - [8]断言失败:创建者&“插件未找到”
、
、
、
我使用
TensorRT
将
模型
从onnx转
换为
trt -format。该
模型
最初是来自Tensorflow
模型
动物园(SSD ResNet50)的一个
模型
。[E] Engine set up failed &&&& FAILED
TensorRT
.trtexec # trtexec --onnx=..有人知道
如何将
模型
从Tensorflow
模型
动物园转
换为
Ten
浏览 2
提问于2021-06-18
得票数 4
回答已采纳
2
回答
基于
TensorRT
的Jetson优化tensorflow
模型
、
、
我试图加快分割
模型
(UNET-Mobileenet-512x512)。我将我的tensorflow
模型
转
换为
具有
tensorRT
精度模式的FP16。而且速度比我预期的要慢。经过
tensorRT
运算后,我得到了14 have。您可以看到,unet 256x256的分割速度是146 FPS。下面是使用
TensorRt
优化tensorflow保存
模型
的代码:from tensorflow.pyth
浏览 10
提问于2021-02-07
得票数 6
回答已采纳
1
回答
jetson nano上的Onnx到
tensorrt
arcface
模型
转换错误(分段故障核心
转
储)
、
、
、
、
我正在将onnx版本的arcface
模型
转
换为
tensorrt
。我正在遵循nvidia的官方文档进行这个过程。但是,我得到了一个错误的分割错误核心
转
储。请提供您最好的建议。
浏览 33
提问于2019-11-05
得票数 1
1
回答
将keras序列
模型
转
换为
张量rt
、
、
、
如何将
角点序列
模型
转
换为
张量-rt?我正在研究人脸识别,我用keras序列
模型
建立了人脸编码
模型
。现在我想在jtson上实现这一点。这是
模型
架构: model = Sequential() model.add(Dense
浏览 2
提问于2020-01-24
得票数 1
回答已采纳
1
回答
优化感度--流动目标检测
模型
V2中心网评价
模型
、
、
、
、
我正在使用Nvidia Tesla P100上的tensorflow 对象检测
模型
来提取边界框和关键点,用于检测视频中的人。使用来自tensorflow.org的预训练,我能够处理大约16帧每秒.有没有办法提高这个
模型
的评估速度?以下是我一直在研究的一些想法: 最初试图转
换为
Ten
浏览 0
提问于2020-11-04
得票数 5
1
回答
如何使用
pytorch
0.4.1
模型
初始化
pytorch
0.2.0?
、
、
我遇到了一个问题,我在
pytorch
0.4.1中训练我的
模型
,但我找不到一个工具来将它转
换为
caffe
模型
。如何使用init
pytorch
0.2.0的
pytorch
0.4.1 model 或者
如何将
pytorch
0.4.1 model转
换为
caffe model
浏览 12
提问于2018-09-12
得票数 0
1
回答
RuntimeError:仅支持将元组、列表和变量作为JIT输入,但获取了NoneType
、
我的代码是 a=torch.randn(1,80,100,requires_grad=True) torch.onnx.export(waveglow,a, "waveglow.onnx") 我正在尝试将
PyTorch
模型
导出为ONNX格式,这样我就可以在
TensorRT
中使用它。在
PyTorch
中测试我的
模型
时,输入张量维度是(1,80,x),其中x随输入文本长度而变化(我使用的
模型
是名为waveglow的TTS
模型
) 当我尝试运行上面的代码将<e
浏览 631
提问于2019-03-10
得票数 3
1
回答
AWS SageMaker NeoV.S.原生优化运行时
、
、
SageMaker Neo相对于每个ML加速器提供的专用本机运行时(如NVIDIA
TensorRT
、Intel OpenVINO、DeepView RT、CoreML、ArmNN等)有什么优势?我知道Neo在幕后使用了一些框架,比如
TensorRT
,但是直接为Neo或
TensorRT
编译
模型
有什么好处呢?另一点是,根据官方文档,对不同ML
模型
的支持在MXnet以外的框架中是有限的。如果一家公司在
PyTorch
或Tensorflow/Keras中有
模型
,那么它
浏览 10
提问于2022-10-31
得票数 0
1
回答
Tensorflow-Onnx-
Tensorrt
的准确度下降
、
、
我有一个tensorflow训练
模型
,并在tensorflow测试,精度达到95%。我该从哪里看这个精度下降的地方?唯一的区别是我在
TensorRT
中进行批处理推理,而不是在Tensorflow中。 对于Tensorflow和
浏览 6
提问于2020-09-11
得票数 0
回答已采纳
1
回答
如何将
grid_sample
模型
转
换为
INT8量化的
TensorRT
模型
?
、
、
、
我试图通过ONNX (opset 11)将torch.nn.functional.grid_sample的
模型
从
Pytorch
(1.9)转
换为
使用INT8量化的INT8 (7)。有了它,转换到
TensorRT
(有和没有INT8量化)是成功的。没有INT8量化的
Pytorch
和TRT
模型
提供的结果接近相同的结果(MSE为e-10阶)。出于测试目的,我创建了只包含grid_sample层的测试
模型
。在这种情况下,
TensorRT
结果与不带INT8量化的
浏览 2
提问于2021-09-13
得票数 0
1
回答
如何在TensorFlow、Keras或
PyTorch
中部署CoreML
模型
?
、
、
关于CoreML
模型
的教程都是将TensorFlow
模型
或
PyTorch
模型
转
换为
CoreML
模型
。如果预先训练好的
模型
文件是mlmodel类型,我不知道如何在python中使用它,也不知道
如何将
mlmodel转
换为
tf
模型
。如何在Python语言中通过TensorFlow、Keras或
PyTorch
来读取和部署CoreML
模型
?
浏览 28
提问于2020-09-06
得票数 0
回答已采纳
点击加载更多
相关
资讯
如何将PyTorch Lightning模型部署到生产中
如何将图片文件转换为PDF文档-图片转PDF的方法分享
如何将图片转换为电子表格-图片转Excel方法介绍
TensorRT vs vLLM vs LMDeploy vs MLC-LLM
GPU 高性能推理加速框架Forward开源啦
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券