腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(700)
视频
沙龙
1
回答
TF
lite
模型
在
使用
Androids
NNAPI
时
性能
较差
、
、
我正在小米MI9上
使用
TFLite
模型
基准测试工具1对各种tensorflow-
lite
模型
进行基准测试。我注意到,当我
在
Androids
神经网络API上启用推理
时
,许多
模型
的
性能
会变差。
使用
NNAPI
时
,
模型
表现
较差
的原因可能是什么? 我的猜测是,太大的
模型
不能在手机的协处理器上正确执行,必须将数据来回发送到CPU。
浏览 55
提问于2019-04-30
得票数 3
1
回答
TensorFlow
Lite
有低功耗模式吗?
、
、
我看到
TF
Lite
有一个
使用
NNAPI
进行硬件加速的delegate。我正在阅读
NNAPI
,我看到它有一个名为ANEURALNETWORKS_PREFER_LOW_POWER的compilation setting,它编译一个给定的ANEURALNETWORKS_PREFER_LOW_POWER
模型
,以优先考虑低功耗。
TF
Lite
是否有
使用
此省电模式或任何省电模式的设置?我
在
Android Studio上
浏览 14
提问于2020-07-01
得票数 0
回答已采纳
1
回答
与
NNAPI
一起
使用
ML工具包
、
、
、
我正在尝试在运行Android 9的Android设备上
使用
新的Google机器学习sdk,ML Kit。makes通过将谷歌的ML技术(如、TensorFlow
Lite
和)整合到一个SDK中,可以轻松地
在
应用程序中应用ML技术。无论您需要基于云的处理能力,移动优化的设备
模型
的实时功能,还是定制的TensorFlow
Lite
模型
的灵活性,makes只需几行代码就可以实现。我认为这意味着
在
至少有Android8.1的设备上(根据
NNAPI
的文档),S
浏览 2
提问于2019-02-06
得票数 1
回答已采纳
1
回答
我如何在Android的Tensorflow
Lite
上
使用
HAL版本1.2?
、
、
、
我有一个量化的TensorflowLite
模型
,我正在加载到运行Android11的Pixel 3上。我
使用
Tensorflow
Lite
2.5构建了这个
模型
,我
使用
的是每晚为Android构建的Tensorflow。/OperationsUtils(16219): NN_RET_CHECK
浏览 5
提问于2021-03-22
得票数 0
回答已采纳
2
回答
如果我尝试
在
android 8.1下
使用
GPU代理,会发生什么情况
、
、
、
、
下面是
NNAPI
的系统架构。
NNAPI
在
Android8.1(level27接口)或更高版本上可用。如果我尝试
在
android 8.1下
使用
GPU委派,会发生什么?
浏览 1
提问于2019-11-25
得票数 0
1
回答
TensorFlow
Lite
GPU计算比CPU计算慢得多
、
、
我已经将
模型
从常规的
TF
1.x会话转换为.tflite文件,方法是:首先创建一个检查点和一个保存的失重图形(.pbtxt),然后
使用
freeze_graph()函数将
模型
冻结到一个具有图形权重的.pb在那之后,我把
模型
放入Android Studio,并在我的摩托罗拉Moto G7 Power上用Adreno506GPU运行。 然而,
在
我的原始
模型
和
TF
Lite
运行的
模型
之间有两个主要的区别。我的推断准确率<em
浏览 36
提问于2020-07-15
得票数 1
1
回答
Tensorflow
Lite
Android: GPU委托和
NNAPI
委托都比CPU慢
、
、
、
、
我目前正在评估和比较一些tensorflow
模型
在
不同智能手机上的
性能
。我正在测试MNIST和CIFAR10数据库。奇怪的是,当我试图用硬件加速来加快推理时间
时
,它们的表现总是比以前差。例如,这些是我
在
Galaxy Note 20 Ultra上获得的结果,它肯定有一些功能强大的GPU和NPU(每个推断的结果都是毫秒):MNIST GPU: 2.322CIFAR10 CPU: 0.810 CIFAR10 GPU: 8.12
浏览 18
提问于2022-07-26
得票数 0
1
回答
Tensorflow 2 SSD MobileNet
模型
在
转化为tflite时中断
、
、
我一直试图按照这个过程
在
Google:上运行一个对象检测器(SSD MobileNet) 我成功地
使用
对象检测API对我的
模型
进行了培训和评估。运行后的export_tflite_graph_
tf
2.py脚本和转换代码没有错误,但是当我尝试
使用
模型
运行推理
时
,我看到了一些奇怪的行为。我甚至验证了
tf
.saved_model.load()返回的类型
在
通过saved_model脚本之前和之后传入saved_model
时
是
浏览 7
提问于2022-08-12
得票数 1
3
回答
将TensorFlow Keras
模型
转换为Android .tflite
模型
、
、
、
我正在
使用
TensorFlow和Keras做一个图像识别项目,我想要实现到我的安卓项目。我对坦索弗洛很陌生..。我可以将
模型
转换为:base_model = VGG16(weights='imagenet') model = Model(inputs=base_model.input, outputs=base_model
浏览 15
提问于2022-04-22
得票数 0
回答已采纳
1
回答
为什么量化的TensorFlow
Lite
模型
在
延迟方面表现不佳?
、
、
我目前正在测试用TensorFlow
Lite
转换的U-Net网络推理的延迟时间。
在
一个分段问题上,我正在测试具有相同结构的三个NN (我正在用Windows操作系统
在
我的笔记本上测试它们): 第一个
模型
: TensorFlow
模型
(没有优化,
使用
Keras接口创建)。第三个
模型
:
使用
TensorFlow优化和量化的TFLite
模型
(
使用
Python进行转换,用tensorflow.
lite
.O
浏览 4
提问于2021-01-08
得票数 1
1
回答
导致“检查失败: ret == 0 (11比0)通过pthread_create()创建线程失败”的原因。Tensorflow
、
、
、
我
在
python中做了一个不和谐的bot,现在
使用
Tensorflow和NLTK
在
它中添加了"Chatbot“特性。当我
在
本地运行机器人时,它运行的非常好,没有任何问题,但是当我将它移到驻留我的投资组合的Namec堆托管包
时
,它开始出错,它说: OpenBLAS blas_thread_init: pthread_create我搜索了它并找到了一个解决方案,它告诉我
在
使用
任何导入之前都要
使用
os.environ['OPENBLAS_
浏览 10
提问于2021-06-11
得票数 1
回答已采纳
1
回答
Android下Tensorflow目标检测
性能
下降
、
、
、
我最近
使用
Tensorflow 1.15训练了一个对象检测
模型
,
使用
Python的测试结果很好。然而,
在
将其转换为.tflite格式后,
在
安卓上运行该
模型
后,其
性能
急剧下降。
在
模型
转换为
tf
-
lite
的过程中会出现
性能
损失吗?有没有办法
在
转换过程中避免这种
性能
损失?参考资料: 培训来源:https://github.com
浏览 34
提问于2020-01-24
得票数 1
回答已采纳
1
回答
训练后量化后的问题加载
模型
、
我训练了一个
模型
,并将其转换为.tflite
模型
。我已经
使用
以下内容完成了训练后量化: import tensorflow as
tf
converter =
tf
.
lite
.TFLiteConverter.from_saved_model(saved_model_dir() 但是,当我尝试
在
RaspberryPi上
使用
模型
进行推理
时
,我得到了以下错误 Traceback (most recent call last
浏览 36
提问于2019-06-23
得票数 3
回答已采纳
3
回答
如何将.onnx转换为tflite?
、
、
、
、
我已经通过以下方式将我的
模型
导出到ONNX:torch_out = torch.onnx.Tensorflow
Lite
文件,这样我就可以
在
Android上进行推理了。我尝试通过以下方式导出到Tensorflow GraphDef proto:
tf
_rep.export_graph(EXPORT_PATH + 'mnist-test/mnist-
tf
-export.pb指定什么,因为
模型
最初是
在
PyTorch
浏览 3
提问于2018-11-07
得票数 20
3
回答
抛出“未找到内置操作码'CONV_2D‘版本’2‘的op
、
、
、
keras.layers.Dense(280, activation='relu'), keras.layers.Dense(4, activation='softmax')我
使用
以下代码将其转换为.tflite:converter =
tf
.compat.v1.
lite
.TFLiteConverter.from_keras_model_file("model.h5") c
浏览 2
提问于2020-08-27
得票数 0
回答已采纳
2
回答
使用
TocoConverter.from_keras_model_file将Keras
模型
转换为Tensorflow-
Lite
时
出现问题
、
、
、
我
在
使用
TOCO将Keras
模型
转换为TfLite
时
遇到了一个问题。遵循以下指南:def create_
lite
_model(keras_model_file):
tf
_
lite
_graph = os.path.join(WEIGHTS_DIRECTORY,
lit
浏览 0
提问于2018-10-10
得票数 1
2
回答
TFlite model.process()有时需要输入数据TensorImage,有时需要TensorBuffer来处理图像?是否有不同的图像输入数据?
、
首先,我采用了一个常规的TensorFlow / Keras
模型
,该
模型
使用
以下方法保存: include_optimizer=True, 然后,我
使用
以下方法将这个Keras
模型
(300 MB)压缩和量化为TFlite格式: converter =
tf
.
lite
.TFLiteConverter.from_ke
浏览 40
提问于2022-03-27
得票数 0
2
回答
OSError: SavedModel文件不存在于: C:\Users\Munib\New folder/{saved_model.pbtxt|saved_model.pb}
、
、
、
我想在android studio中
使用
我的keras训练
模型
。我
在
互联网上得到了这段代码,将我的代码从keras转换为tensorflow-
lite
。但是当我尝试编写代码
时
,我得到了这个错误: OSError: SavedModel file does not exist at: C:\Users\Munib\New folder/{saved_model.pbtxt|saved_model.pb} 我
使用
的代码是从keras转换到tensorflow-
lite</e
浏览 1242
提问于2020-06-13
得票数 9
1
回答
冻结推理图( TFLite )转换为.pb失败?
、
、
、
、
我正在努力将运行获得的冻结推理图转换为TFLite
模型
。.
lite
.TFLiteConverter.from_frozen_graph(path, input_arrays=input, output_arrays=output) print("starting我将上面的代码更改为
在
本地dev环境上运行,但仍然没有成功。
tf
.resource<tensor<*xf32>>>, tensor<?xi32>, tensor<f32>) -> tensor&l
浏览 3
提问于2020-12-11
得票数 0
1
回答
在
特定设备上运行实现tensorflow-
lite
的android应用程序时出错
、
、
、
在
特定设备上运行实现tensorflow-
lite
的android应用程序时出错。例如) LG X4、LG Q52这是我的错误日志。E/AndroidRuntime: FATAL EXCEPTION: inference Process: org.tensorflow.
lite
.examples.detection, PID: 13469OpenCL library no
浏览 7
提问于2021-03-05
得票数 0
点击加载更多
相关
资讯
TensorFlow Lite现已成为Android官方指定机器学习引擎
TensorFlow Lite在Kika Keyboard中的应用案例分享
联发科表示:7nm 5G芯片最快明年预商用
与TensorFlow共同进步,kika输入法引擎不断突破升级
联发科:7nm 5G芯片最快明年预商用
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券