腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
tensorflow
模型
和转换
后
的
tflite之间
的
精度下降
、
、
、
我遇到了一个问题,我将
keras
模型
转换为tensorflow lite格式,但是一旦我这样做了,转换
后
的
模型
的
精度就会显着下降。该
模型
是一个相当简单
的
自然语言处理
模型
。在转换之前,
模型
的
准确率约为96%,但一旦转换为tensorflow lite格式(没有任何优化),准确率就会下降到20%左右。这是一个可笑
的
性能下降,所以我想知道这是可能发生
的
事情,还是我做错了
浏览 149
提问于2021-01-15
得票数 3
2
回答
即使在
训练
后
量化
之后也“
模型
未
量化
”
、
、
我从Custom Vision下载了一个tensorflow
模型
,并希望在珊瑚tpu上运行它。因此,我将其转换为tensorflow-lite,并应用混合
训练
后
量化
(据我所知,这是唯一
的
方法,因为我无法访问
训练
数据)。Invalid model: model.tflite你知道我
的
问题是什么吗?
浏览 3
提问于2019-08-11
得票数 2
1
回答
TFLiteConverter参数在TensorFlow 1.x上
的
优化
、
、
、
、
我一直在学习如何在TensorFlow 2.x上使用TFLiteConverter进行
量化
,但是我正在TensorFlow 1.13上实现一个项目,我想知道如何在这个版本上做同样
的
事情。例如,据我所观察到
的
,下面的命令做同样
的
事情converter.post_training_quantize = True converter.optimizations= [tf.lite.Optimize.OPTIMIZE_FOR_SIZE] 是对
的
吗?那么
整数
浏览 2
提问于2020-04-02
得票数 0
回答已采纳
1
回答
Keras
模型
的
训练
后
全
整数
量化
、
、
、
我正在尝试对
Keras
模型
进行
训练
后
的
完整8位
量化
,以编译并部署到EdgeTPU。我有一个
训练
有素
的
Keras
模型
保存为.h5文件,并试图通过这里指定
的
步骤:,部署到珊瑚开发委员会。我遵循以下
量化
说明:)import tensorflow as tf def representative_datas
浏览 9
提问于2019-10-30
得票数 0
1
回答
重新
量化
已经
量化
的
模型
、
是否有可能重新
量化
已经
量化
的
模型
? 我有一些
模型
,我已经
训练
与
量化
感知
训练
(QAT)与
全
整数
量化
。但是,我没有为GPU代表团提供这些模式。是否有一种方法,使我已经拥有的
模型
与Float16
量化
,以便能够运行他们与GPU代表。
浏览 2
提问于2020-08-20
得票数 0
1
回答
浮子16
量化
的
Tflite
模型
不适用于自定义
模型
?
、
、
我有一个定制
的
tensorflow
模型
,我使用Float16
量化
将其转换为tflite,就像提到
的
一样。但是使用tflite解释器
的
tflite
模型
的
输入细节是 'index': 0, 'shape': array([ 1, 256, 256, 3]在将tf
模型
转换为tflite时,我也收到了此警告。P.S I也尝试做
浏览 1
提问于2021-04-18
得票数 0
1
回答
我可以在
Keras
序列
模型
中添加Tensorflow伪
量化
吗?
、
我已经搜索了一段时间,但似乎
Keras
只有经过
训练
后
才具有
量化
特性。我希望在我
的
Keras
序列
模型
中添加Tensorflow伪
量化
。根据Tensorflow
的
doc,我需要这两个函数来做假
量化
: tf.contrib.quantize.create_training_graph()和tf.contrib.quantize.create_eval_graph我
的
问题是,是否有人在
Keras</
浏览 2
提问于2018-09-17
得票数 2
回答已采纳
1
回答
如何确保TFLite解释器只使用int8操作?
、
、
、
、
我一直在使用Tensorflow
的
TFLite研究
量化
。据我所知,
量化
我
的
模型
权重是可能
的
(这样它们将使用更少4倍
的
内存存储),但这并不意味着
模型
不会将其转换为浮点数来运行它。我还了解到,要仅使用int运行我
的
模型
,我需要设置以下参数: converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8] converter.infer
浏览 68
提问于2020-04-07
得票数 3
回答已采纳
1
回答
训练
后
量化
后
的
问题加载
模型
、
我
训练
了一个
模型
,并将其转换为.tflite
模型
。我已经使用以下内容完成了
训练
后
量化
: import tensorflow as tf converter = tf.lite.TFLiteConverter.from_saved_model(saved_model_dir当我在没有应用任何
训练
后
量化
的
情况下将
模型
转换为tflite时,我没有得到错误。这是我用来在不应用后
训练
浏览 36
提问于2019-06-23
得票数 3
回答已采纳
1
回答
为什么来自
量化
感知
训练
模型
的
TFLite
模型
与具有相同权重
的
正常
模型
不同?
、
、
、
我正在
训练
一个
Keras
模型
,我想在一个
量化
的
8位环境(微控制器)中使用TFLite来部署它。为了提高
量化
性能,我进行
量化
感知
训练
。然后,我使用我
的
验证集作为一个有代表性
的
数据集创建
量化
的
TFLite
模型
。性能使用验证集进行评估,并在此图像中加以说明: 如果不是简单地从经过QA
训练
的
模型
(图中红色)生成TFL
浏览 9
提问于2021-03-02
得票数 0
回答已采纳
1
回答
培训
后
是否有可能
量化
各个层次
的
权重/激活?
、
、
量化
意识
的
培训在坦索弗洛允许我
量化
使用不同
的
量化
配置
的
个人水平使用tensorflow_model_optimization.quantization.
keras
.quantize_annotate_layer我想对一个已经受过
训练
的
模特产生类似的效果。 在Tensorflow
的
训练
后
量化
文档中,下面是一个将
模型
量化
为float
浏览 16
提问于2022-10-13
得票数 0
1
回答
ValueError:未知层: QuantizeLayer
、
在使用tensorflow_model_optimization进行QAT
训练
后
,跟随 tf.
keras
.models.load_model(
keras
_quantized_model_file)
浏览 3
提问于2020-09-30
得票数 2
1
回答
巨蟒
的
负荷-流场
模型
、
、
我正在使用Tensorflow Lite进行一个TinyML项目,该项目包括
量化
模型
和浮点
模型
。在我
的
管道中,我使用tf.
keras
API
训练
我
的
模型
,然后将
模型
转换成TFLite
模型
。最后,将TFLite
模型
量化
为int8
模型
。我可以使用API model.save和tf.
keras
.model.load_model保存和加载“正常”
浏览 3
提问于2021-06-25
得票数 2
回答已采纳
1
回答
将
keras
模型
转换为
量化
的
tflite损失精度
、
、
、
我正在尝试将
keras
模型
转换为tflite
量化
模型
,这样我就可以在coral TPU上运行我
的
模型
,但我
的
keras
模型
和tflite
模型
的
输出明显不同。红点是
量化
的
tflite
模型
输出,蓝点是原始
keras
模型
输出。 下面是我将
keras
模型
转换为
量化</
浏览 4
提问于2020-05-28
得票数 1
1
回答
训练
后
量化
后
的
“
模型
未
量化
”取决于
模型
结构?
、
、
、
、
似乎
训练
后
量化
对某些
模型
结构有效,而对其他
模型
结构无效。metrics=['accuracy']) model.fit(train_images, train_labels, epochs=2) 和
训练
后
的
量化
为 converter = tf.lite.TFLiteConverter.from_
keras
_modeledgetpu_compiler my_mnist_quant.tflite命令
浏览 28
提问于2020-07-09
得票数 0
回答已采纳
1
回答
TensorFlow QAT如何获得
量化
的
权重
、
、
、
如何在TensorFlow
的
量化
感知
训练
后
得到
量化
权值或
量化
感知权值。我想在应用程序
的
NumPy上使用
整数
量化
的
权重。到目前为止,我
的
用法如下,它给出了float32
的
值。import tensorflow.
keras
.backend as K weights_t
浏览 17
提问于2020-10-23
得票数 0
1
回答
不同数据类型
的
神经网络层
、
、
、
、
我想建立一个神经网络,它
的
层由不同
的
数据类型组成。例如,一个层可以是INT16数据类型,一个层可以是Float16或INT32。有人能帮我建立这样一个具有不同数据类型
的
浏览 4
提问于2020-07-08
得票数 0
1
回答
TensorFlowLite中
全
整数
量化
方法中
的
运算类型
、
、
、
我想应用
训练
后
量化
(
全
整数
)使用TensorFlow
模型
优化包
的
预
训练
模型
(LeNet5)。model._name = 'LeNet5'model.add(tf.
keras
.layers.Reshape)) mod
浏览 4
提问于2022-05-10
得票数 0
4
回答
Edge TPU编译器:错误: quantized_dimension必须在[0,1]范围内。是3
、
、
、
我正在尝试让一个Mobilenetv2
模型
(对我
的
数据
的
最后一层进行再
训练
)在Google edge TPU Coral上运行。我遵循这个虚拟
的
https://www.tensorflow.org/lite/performance/post来做
训练
后
的
量化
。converter.target_ops = [tf.lite.OpsSet.TFLITE_BUILTINS_INT8] tfli
浏览 50
提问于2019-07-28
得票数 8
回答已采纳
1
回答
在没有原始HDF5文件
的
情况下,可以将Tensorflow Lite
模型
量化
为8位权重吗?
、
我试图用编译一个tflite
模型
,以使它与Google
的
Coral键兼容,但是当我运行edgetpu_compiler the_model.tflite时,我会得到一个Model not quantized然后,我想为8位
整数
格式,但我没有
模型
的
原始.h5文件。 是否有可能将tflite转换成8位格式
的
模型
量化
?
浏览 3
提问于2020-08-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Java部署训练好的Keras深度学习模型
揭秘 ChatGPT背后的秘密:大模型微调训练全流程解析
《Deep Learning with Python》第三章 3.5 走进神经网络之新闻多分类
Keras文本分类实战(下)
使用Keras进行深度学习:(一)Keras 入门
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券