腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
如何
提高
集成
模型
的
推理
时间
、
、
、
我有10个
模型
,并想将这些
模型
集成
在一起。我需要做出一个非常非常快
的
响应
时间
的
推断。std::ref(pred_2d[i])));并且Search::make_infer被定义为:通过这样做,响应
时间
从我需要将
时间
减少到10毫秒。我
如何
进一步优化这一点?
浏览 1
提问于2017-12-16
得票数 0
1
回答
有没有办法在视频中使用Yolov5
的
两个不同
的
权重文件?
、
、
、
、
我有两种经过训练
的
YoloV5
模型
用于笔尖和笔帽检测(pen.pt,cap.pt)。!weights cap.pt pen.pt --img 640 --conf 0.50 --source VID_20220727_185703.mp4 它运行正常,并分别检测笔和帽,但,它只显示为两个
的
标签为帽
浏览 3
提问于2022-08-06
得票数 1
1
回答
加速张量流
模型
、
、
、
我使用mxnet框架训练了一个
模型
。该
模型
的
推理
时间
约为9毫秒。该
模型
主要由卷积层组成,并使用深度可分离卷积。 我想在浏览器中运行该
模型
。我将
模型
转换为ONNX格式,然后从 ONNX -> tensorflow -> tensorflow. tensorflowjs
模型
的
推理
时间
约为129毫秒。 有什么建议可以
提高
模型
的</e
浏览 4
提问于2019-03-06
得票数 0
1
回答
TensorRT/TFlite示例实现
、
、
、
有了经过训练
的
“.h5”Keras
模型
文件,我正在尝试优化
推理
时间
: “int8”量化。此时,我可以将
模型
文件转换为TensorFlow protobuf '.pb‘格式,但作为一个侧面,它还包含几个层
的
自定义对象。看到了一些关于TensorRT转换和TFLite转换
的
文章,但我似乎找不到一个可读
的
健壮实现。有人能解释一下
如何
做
浏览 1
提问于2019-07-06
得票数 3
2
回答
数据集图像大小和
推理
速度
、
、
、
是否在同一数据集上对预先训练过
的
模型
进行训练/微调,但缩小了(例如,70%)
的
大小,从而
提高
了
推理
速度?更普遍地说,对较小图像进行CNN训练是否
提高
了
推理
速度?
浏览 0
提问于2019-02-18
得票数 4
1
回答
从PB到float16操作
的
TensorFlow图转换
、
、
、
我有一个冻结
的
图形,PB文件,我导入到TensorFlow,目前所有的数据类型和操作都是在float32中完成
的
,我
如何
才能将一切转换为float16,即使是乘法,卷积等操作?
浏览 10
提问于2018-02-12
得票数 0
1
回答
知识蒸馏是否具有整体效应?
、
、
、
有一个
模型
显示了99%
的
性能(10class图像分类)。但我不能使用更大
的
模型
,因为我必须保持
推理
时间
。 如果我使用另一个大
模型
训练知识蒸馏,是否会产生整体效应?-option-或者让我知道是否有比这更好
的
方法来
提高
性能。 enter image description here
浏览 17
提问于2021-07-14
得票数 0
回答已采纳
1
回答
Tensorflow对象检测运行非常慢
、
我使用
的
是初始v2 rcnn
模型
。我有我
的
实时目标检测程序
的
代码with detection_graph.as_default():我只能得到大约9帧每秒
的
速度。e_e 我目前使用
的
是Nvidia Geforce MX150。会不会是我
的</e
浏览 1
提问于2020-03-11
得票数 1
1
回答
yolov4对象检测
模型
的
推理
时间
我正在raspberry pi4B和jetson上运行yolov4对象检测
模型
。我得记录下
推理
时间
。我使用12张图片进行评估。
如何
记录该
模型
的
推理
时间
?有什么可以计算
推理
时间
的
吗?
浏览 1
提问于2022-07-26
得票数 0
2
回答
使用OpenVINO运行Facenet
、
、
在使用OpenVINO工具包转换
模型
之后,我试图运行facenet,但是我无法使用.npy和.pickle来完成人脸识别。我成功地使用工具包将.pb文件转换为.bin和.xml文件。
浏览 2
提问于2019-02-26
得票数 0
1
回答
将GpuMat复制到CUDA张量
、
、
、
我试图在C++中运行
模型
推理
。我能够在C++中使用torch::jit::load()加载
模型
。我能够在cpu和gpu上进行
推理
,但是起点总是torch::from_blob方法,它似乎正在创建cpu端张量。问:
如何
从cv
浏览 0
提问于2018-12-04
得票数 1
回答已采纳
1
回答
第一个数据点
的
Tensorflow
推理
运行
时间
高,后续数据点
的
运行
时间
减少
、
、
、
、
我正在使用TensorFlow
的
对象检测模块中
的
一个
模型
来运行
推理
。我在同一个会话中循环检查我
的
测试映像,并执行sess.run()。但是,在分析这些运行时,我意识到与后续运行相比,第一次运行
的
时间
总是更长。我正在英特尔
的
i7 CPU上部署对象检测推断管道。一个session.run()、1、2、3和第4张图像
的
时间
看起来类似于
浏览 1
提问于2019-04-08
得票数 1
2
回答
加速Keras
模型
的
推理
、
、
、
、
我有一个Keras
模型
,它在Raspberry Pi (用相机)上进行
推理
。覆盆子Pi有一个非常慢
的
CPU (1.2.GHz)和没有CUDA GPU,所以model.predict()阶段需要很长
时间
(~20秒)。我正在寻找办法尽可能地减少这一点。我试过: ,我还能做些什么来
提高
推理
的
速度吗?我已经在简单
浏览 0
提问于2017-10-16
得票数 7
回答已采纳
1
回答
在web应用程序中为特定于用户
的
大型
模型
服务
的
最佳实践?
、
、
、
、
首先,你可以在下面看到任何幼稚
的
说法,我是这个领域
的
新手。
集成
大型机器学习/深度学习
模型
微调
的
web应用程序
如何
处理这些
模型
的
存储和检索以进行
推理
?我试图实现一个网络应用程序,让用户微调一个稳定
的
扩散
模型
,使用他们自己
的
图像与梦想间。由于微调
模型
相当大,达到了几千兆字节。在对
模型
进行训练和保存后,应用程序应该在每次用户访问站点并请求时
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
2
回答
CPU上Tensorflow
模型
服务器
的
性能问题与Tensorflow
模型
推理
的
比较
、
、
、
、
我在Tensorflow
模型
服务器上观察到CPU
的
性能问题。与原始
的
Tensorflow
模型
推理
相比,它
的
推理
时间
增加了一倍。两者都是用MKL构建
的
,只用于CPU。mavx --copt=-mavx2 --copt=-mfma --copt=-O3 tensorflow_serving/model_servers:tensorflow_model_server 目标
模型
是简单
的
CNN分割<
浏览 7
提问于2017-11-27
得票数 1
1
回答
YoloV5定制再培训
、
、
、
我在yoloV5s
模型
中训练了我
的
自定义数据集,我
的
推理
准确率达到了80%。现在,我需要增加更多
的
图片和标签,以
提高
准确性。我
的
问题是,我已经训练10,000+标签达到80%,为了训练和
提高
我
的
准确性,我是否需要把旧
的
10,000+数据和我
的
新数据包括在一起?有任何方法,我可以包括新
的
数据,只是为了重新培训
模型
,即使我添加了一个新
的
类? 我怎样才
浏览 12
提问于2021-08-31
得票数 2
回答已采纳
1
回答
评估使用
推理
器
的
算法
的
性能
、
、
、
、
我开发了一种算法(java代码),它在OWL本体中找到两个给定类之间
的
特定路径(属性链)。这是F ⊑ =1 r.D 这个瓶
浏览 5
提问于2015-05-14
得票数 1
2
回答
如何
使用django使tensorflow会话在内存中运行
、
我有一个用tensorflow构建
的
对象检测
模型
,并与Django项目
集成
。当前发生
的
情况是,每当向Django API发出请求时,就会创建tf会话,并在检测完成后关闭。是否可以使用所需
的
推理
图启动Django服务器和tensorflow会话以减少对象检测
时间
?
浏览 0
提问于2018-12-05
得票数 0
回答已采纳
1
回答
火炬
模型
优化:自动混合精度与量化?
、
我在努力优化我
的
火把
模型
。我理解量化
的
基本原理(将32位浮点数更改为16位或8位中
的
其他数据类型),但我不知道这两种方法有何不同或选择了什么。 我看到AMP (自动混合精度) 和规则量化。
浏览 4
提问于2021-12-28
得票数 2
回答已采纳
1
回答
与C++相比,Tensorflow Python应用程序接口速度较慢
、
、
、
、
我是Tensorflow
的
爱好者,我正在尝试导出一个
模型
(用Python语言开发,然后使用Tensorflow工具冻结和优化),以便在C++项目中使用(只是为了推断)。我所经历
的
是,即使遵循在其他用户已经打开
的
其他问题中发现
的
所有规定,我在编译源代码后获得
的
C++可执行文件在
推理
操作(我
的
意思是会话->运行)中比在Python
推理
代码中
的
相同操作慢10倍。我使用以下命令构建了C++项目: bazel build
浏览 30
提问于2018-01-22
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
集成时间序列模型提高预测精度
如何提高站桩的时间?
LLMLingua:集成LlamaIndex,对提示进行压缩,提供大语言模型的高效推理
R语言ARIMA集成模型预测时间序列分析
UniLM如何将多个自然语言处理任务集成到一个模型进行训练和推理
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券