腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
训练
时
的
位
精度
如何
影响
DNN
的
精度
-
支持
量化
类型
推理
的
库
、
我想检查
位
精度
如何
影响
DNN
的
准确性。你知道有什么C/C++/Python
库
不需要大量
的
返工来
支持
量化
类型
的
推断吗?例如,我想将所有操作数(权重、激活、误差和梯度)设置为8/16/32
位
精度
,并在测试后检查每个
精度
的
准确性。
浏览 20
提问于2019-11-14
得票数 1
回答已采纳
1
回答
火炬模型优化:自动混合
精度
与
量化
?
、
我在努力优化我
的
火把模型。我理解
量化
的
基本原理(将32
位
浮点数更改为16
位
或8
位
中
的
其他数据
类型
),但我不知道这两种方法有何不同或选择了什么。 我看到AMP (自动混合
精度
) 和规则
量化
。
浏览 4
提问于2021-12-28
得票数 2
回答已采纳
2
回答
深度学习基准测试在16
位
和8
位
定点
精度
方面的表现
如何
?
、
、
Alexnet或Google net可以在16
位
和8
位
定点
精度
下运行吗?假设我使用
的
是caffe框架。
浏览 0
提问于2017-09-14
得票数 1
2
回答
使用TensorFlow Lite、Caffe2和OpenCV部署cnn模型
时
,哪个更快?
、
、
、
、
我们可以通过TensorFlow Lite、Caffe2或OpenCV在智能手机上部署MobileNet,我认为Caffe2将以更高
的
fps提供最好
的
性能。但是为什么呢?它们之间
的
性能差距这么大吗?
浏览 59
提问于2019-09-13
得票数 1
1
回答
动态范围
量化
、
、
、
用于动态范围
量化
的
tensorflow文档指出:我感到困惑
的
是,如果在
推理
时
将权重转换为float32,那么
量化
是
如何
完成
的
呢?
浏览 3
提问于2021-07-25
得票数 0
回答已采纳
1
回答
TensorFlow模型在
训练
后
量化
后仍然是浮点。
、
在应用
训练
后
量化
后,我定制
的
CNN模型被缩小到原来大小
的
1/4 (从56.1MB减少到14 my )。但是,在
推理
过程中,我得到了以下错误: java.lang.IllegalArgumentException: Cannot convert between a TensorFlowLite buffer这使我怀疑转换后
的
tflite模型仍然是浮点数格式。这是预期
的
行为吗?我怎样才能像在中一样,从TensorFlow官方存储
库
中获得一个<em
浏览 1
提问于2018-10-17
得票数 2
回答已采纳
2
回答
Int8 (字节)操作对深入学习是
如何
有用
的
?
、
、
Nvidia计划在他们
的
泰坦卡上增加对int8操作
的
硬件
支持
,并瞄准深度学习。我试图了解它是
如何
有用
的
,以及哪些
类型
的
网络将从中受益。我知道FP16而不是FP32对DL应该是有用
的
,但不确定int8能做什么。有一些研究表明,您可以对FP32进行完全精确
的
训练
,然后将其舍入一个字节--但这不会加速或减少
训练
时
的
内存占用。
浏览 0
提问于2016-07-25
得票数 3
1
回答
在再
训练
中增加许多FC层会增加模型
的
大小吗?有什么方法来优化模型
的
大小吗?
、
、
、
我正在重新
训练
一个预先
训练
过
的
模特VGG16。当我保存模型
时
,发现模型
的
大小是2GB(这太大了)。我已经为9个班(900张图片)
训练
了这个模型。原因是我必须在AWS云中使用这个模型,在那里系统有8GB
的
内存。我担心他们
的
表现会否受到这些模式<
浏览 0
提问于2019-07-09
得票数 0
1
回答
动态范围
量化
和全整数
量化
在TensorFlow中是
如何
优化
的
?
、
我目前正在使用TensorFlow Lite,我试图理解 (DRQ)和 (FIQ)
的
区别。据我所知,在第一种情况下,只有权重被
量化
,而在第二种情况下,权重和激活(输出)都被
量化
。关于权值
的
量化
,是简单地从float32转换到int8,还是进行另一种操作?同样,为什么需要一个有代表性
的
数据集来
量化
FIQ中
的
激活?另外,我想知道,例如,一层神经网络是否有乙状结肠激活,这意味着在FIQ中,这一层
的
所有输出都将被“映射”到0或1(而不是在中间
浏览 2
提问于2021-02-08
得票数 0
1
回答
在
训练
过程中,Tensorflow
量化
感知
训练
是否会导致实际
的
加速?
、
、
、
、
我们正在考虑将
量化
感知
训练
用于一个研究项目,以确定
训练
期间
量化
对收敛速度和运行时间
的
影响
。尽管我们还不完全相信这是正确
的
工具。请您澄清以下几点: 1)如果一个层在
量化
感知
训练
期间被
量化
,这意味着输入和权重被
量化
,包括激活函数在内
的
所有操作都被
量化
,然后在返回之前,输出被反
量化
到与下一层兼容
的
精度
。这种理解正确吗
浏览 22
提问于2020-06-19
得票数 0
回答已采纳
2
回答
在深度学习中使用Fp16对最终结果有负面
影响
吗?
、
我看到tensorflow在
训练
和测试中提供了fp16
的
使用,使用它是否安全,或者它是否会对最终结果产生不利
影响
?
浏览 49
提问于2017-01-21
得票数 1
回答已采纳
1
回答
有没有一种标准
的
方法来优化模型,使其在不同
的
移动设备上运行良好?
、
、
、
其中一个是照片编辑应用程序,其中包括用于面部识别、物体检测、分类和风格转移
的
CNN应用程序。另一个是NLP应用程序,通过建议单词和句子补全来帮助写作过程。一旦我有了一个准确
的
训练
有素
的
模型,它在我正在测试
的
一个或多个移动设备(通常是低端
的
Android)上会变得非常慢。我读到有一些优化可以提高模型
的
速度,但我不知道怎么做。有没有一个标准
的
工具来优化移动/边缘
的
模型?
浏览 3
提问于2019-05-17
得票数 0
1
回答
尾部切割和离散高斯采样
精度
对LWE /环形LWE安全性
的
影响
、
离散高斯采样
的
尾部切割和
精度
如何
影响
LWE /环形LWE
的
安全性?对于给定
的
标准偏差,是否有选择尾切和
精度
的
经验规则或指导方针?截尾是指切掉分布
的
“尾巴”部分($|x| >\β\sigma$),它
的
总质量可以忽略不计。在这份2015年开始
的
纸中,作者建议在$|x| >9.2西格玛$和64
位
精度
的
情况下对128
位</e
浏览 0
提问于2018-03-31
得票数 3
回答已采纳
1
回答
对long double数据
类型
进行openMP向
量化
操作是不可能
的
吗?
、
、
、
、
我正在学习openMP,用我有限
的
知识,我
的
代码已经并行化了。我正在尝试使用openMP矢
量化
技术来改进这段代码。但在阅读相关阅读材料()
时
,我发现不可能对long double数据
类型
执行向
量化
操作。有人能提供为什么会这样
的
信息,并提出一个解决方案,而不是降低
精度
吗?该链接中
的
内容如下:“避免SIMD硬件不
支持
的
操作。Linux上具有(80
位
)长双
精度
的
浏览 1
提问于2016-05-09
得票数 2
2
回答
混合tf.keras.mixed_precision是否适用于
推理
?
、
、
、
、
我不确定我是否理解
的
概念。我
的
目标是运行一个浮点16
精度
的
tf.keras模型,以提高
推理
速度。这能用混合
精度
来完成吗?在培训我
的
模型之前,我要制定这个政策:policy= mixed_precision.Policy('mixed_float16') mixed_precision.set_po
浏览 6
提问于2020-09-03
得票数 0
回答已采纳
1
回答
训练
后
量化
权重
的
keras模型评估
、
、
、
、
我有一个在keras中
训练
的
模型,并保存为.h5文件。该模型通过tensorflow后端使用单
精度
浮点值进行
训练
。现在我想实现一个在Xilinx FPGA上执行卷积运算
的
硬件加速器。但是,在决定FPGA上使用
的
定点
位
宽之前,我需要通过将权重
量化
为8或16
位
数字来评估模型
精度
。我遇到了,但我不确定
如何
从每一层获取权重,
量化
它并将其存储在numpy数组列表中。在对所有层进行
量化
浏览 2
提问于2018-10-15
得票数 5
1
回答
极不相同
的
量子化特性--角化DenseNet模型
的
流场转换
、
、
、
、
我有两个使用Keras
训练
过
的
模型。将这两种模型转换为.pb格式可以很好地工作(
推理
性能相同)。我使用在keras_to_tensorflow上找到
的
实用工具 在TOCO中使用
量化
将200级模型转换为.tflite (前3
精度
下降了30%)。我完全不明白为什么
浏览 2
提问于2018-10-29
得票数 3
1
回答
低钻头深度
的
GEMMLowP
、
具体来说,在Tensorflow使用GEMMLOWP进行
量化
操作
的
情况下,我想在不同
的
位
深度运行
量化
操作。似乎有一些有用
的
信息,但我仍然不太明白
如何
使用它,或者它会产生什么
影响
--当它说最终数据
类型
仍然是uint8,但
精度
较低
时
,这是否仅仅意味着,即使存储在uint8变量中,7
位
算术仍会返回0到127之间
的
值Tensorflow似乎利用了GemmLowP
的
浏览 0
提问于2018-06-26
得票数 1
回答已采纳
1
回答
(ε,δ)-differential隐私准确性/隐私权衡
、
、
、
、
我正在使用Renyi (-differential) PyTorch隐私,这是在PyTorch
DNN
中实现
的
。我这样做是为了保证培训集
的
隐私达到ε
的
程度。为了实现这一点,我使用。随着网络对
训练
集
的
适应程度越来越高,
训练
精度
不断提高,网络
的
保密性逐渐降低。然而,在某个转折点上,隐私降低了,
精度
也降低了;我认为,由于在一批
训练
数据上增加了太多
的
(隐私)噪声,并且/或因为它覆
浏览 0
提问于2020-06-01
得票数 3
2
回答
在GPU上进行
训练
并在CPU上进行
推理
时
的
模型
精度
、
、
、
、
当我们关心速度
的
时候,GPU比CPU好得多。。我
的
直觉说,GPU和CPU之间
的
关系,如果涉及到
精度
,就不应该有任何区别。 但我有一点怀疑,GPU和CPU内部处理信息
的
方式各不相同。他们都有不
浏览 0
提问于2021-05-27
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
加速LLM模型推理高效部署
如何更有效的将深度学习算法部署在计算资源有限的设备?
快手主导研究成果SAMP入选人工智能顶会EMNLP2023
工程之道,旷视MegEngine工业级模型量化能力的构建与实战
旷视天元深度学习框架Beta版的技术升级与生态建设
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券