腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
tflite
模型
在
CPU
和
NNAPI
上
输出
不同
的
预测
、
、
、
、
我
在
Ubuntu 18.04机器
上
训练并量化了Tensorflow
模型
,并将其转换为
tflite
格式。然后我将其部署到配备了NPU加速器、
和
的
Linux Yocto板
上
。我注意到,当使用PC
上
的
CPU
和
电路板
上
的
NPU+
NNAPI
进行推理时,相同
的
tflite
模型
会
输出
<em
浏览 50
提问于2021-05-28
得票数 0
2
回答
如果我尝试
在
android 8.1下使用GPU代理,会发生什么情况
、
、
、
、
下面是
NNAPI
的
系统架构。
NNAPI
在
Android8.1(level27接口)或更高版本
上
可用。如果我尝试
在
android 8.1下使用GPU委派,会发生什么?
浏览 1
提问于2019-11-25
得票数 0
2
回答
如何利用GPU
在
Android
上
运行神经网络
模型
?
、
、
、
、
有人尝试
在
Android
上
运行对象检测或crnn
模型
吗?我试着运行crnn
模型
(序列化
的
pytorch),但在华为P30 lite
上
需要1秒,在三星J4酷睿
上
需要5秒。Huawei P30 lite GPU : Mali-G51 MP4
CPU
: quad coreGPU : Adreno 308 android设备中
的
浏览 37
提问于2020-04-24
得票数 3
回答已采纳
2
回答
用Android
在
Tensorflow
上
创建简单
的
神经网络
、
我想基于示例https://github.com/googlesamples/android-ndk/tree/master/nn_sample创建一个简单
的
神经网络。是否可以使用Tensorflow
上
的
帮助,仅使用Java
上
的
Android工具来创建此应用程序
浏览 17
提问于2019-06-20
得票数 1
回答已采纳
1
回答
gpu代表、tensorflow lite
的
nnapi
在
android手机上
的
性能基本相同。
、
、
我使用以下代码更改电话
上
的
委托(G3226) if(delegateNum == 1){ d.
tfLite
= new Interpreter(loadModelFile(assetManager, modelFilename), option
浏览 1
提问于2020-01-29
得票数 2
回答已采纳
1
回答
TF lite
模型
在
使用Androids
NNAPI
时性能较差
、
、
我正在小米MI9
上
使用
TFLite
模型
基准测试工具1对各种tensorflow-lite
模型
进行基准测试。我注意到,当我
在
Androids神经网络API
上
启用推理时,许多
模型
的
性能会变差。使用
NNAPI
时,
模型
表现较差
的
原因可能是什么? 我
的
猜测是,太大
的
模型
不能在手机
的
协处理器
上
正确执行,必须将数据来回发送到
浏览 55
提问于2019-04-30
得票数 3
1
回答
如何在android 7&8
上
使用tensorflow-lite
nnapi
、
、
NNAPI
可在Android8.1
上
使用。但是我想在安卓7&8(arm64)
上
使用
NNAPI
。
NNAPI
由tensorflow-lite使用.
浏览 3
提问于2018-06-06
得票数 2
回答已采纳
1
回答
我怎么能让麒麟990
的
NPU
在
TensorFlow Lite上工作呢?
、
、
我用我
的
MatePad代码
在
C++ Pro(Kirin 990)上成功地运行了它。我特别为
NNAPI
编写
的
是SetAllowFp16PrecisionForFp32
和
AllocateTensors之前
的
UseNNAPI。我检查了adb logcat
的
日志,发现armnn
和
lite适配器(我认为两者都是华为
的
NNAPI
驱动程序)无法支持主要
的
操作,比如CONV_2D
和
NNAP
浏览 7
提问于2020-06-19
得票数 1
2
回答
与h5
模型
(VGG16预训练)相比,Tensorflow
模型
的
推断速度非常慢。
、
、
与keras (h5)
模型
相比,Tensorflow
的
预测
速度非常慢。这种行为
在
Colab
和
Windows 10系统
上
是相似的。我将标准
的
VGG16
模型
转换为有优化也有无优化(converter.optimizations = tf.lite.Optimize.DEFAULT)
tflite
无
浏览 0
提问于2021-04-01
得票数 0
2
回答
BATCH_TO_SPACE_ND
和
SPACE_TO_BATCH_ND
在
丹宁石中
的
添加
、
、
、
NNAPI
1.1已经支持SPACE_TO_BATCH_ND
和
BATCH_TO_SPACE_ND操作系统,但是目前
的
TFLite
代码还没有实现。请参阅:case
tflite
::BuiltinOperator_SPACE_TO_BATCH_ND: break;
浏览 1
提问于2019-02-13
得票数 0
回答已采纳
1
回答
我如何在Android
的
Tensorflow Lite
上
使用HAL版本1.2?
、
、
、
我有一个量化
的
TensorflowLite
模型
,我正在加载到运行Android11
的
Pixel 3
上
。我使用Tensorflow Lite 2.5构建了这个
模型
,我使用
的
是每晚为Android构建
的
Tensorflow。/OperationsUtils(16
浏览 5
提问于2021-03-22
得票数 0
回答已采纳
1
回答
更轻
的
替代tensorflow-python
的
发行
、
、
、
、
我试图将py文件编译为二进制文件,该二进制文件简单地从json文件读取
模型
并通过导入
的
模型
预测
输出
。现在
的
问题是,当我试图通过pyinstaller编译程序时,生成
的
文件大约为290 it,因为它试图编译整个tensorflow包和它不想要
的
依赖项。更不用说,
在
尝试提取文件时,启动非常慢。正如您所看到
的
,它只是一个简单
的
代码,它在图像文件夹中运行,并将它们识别为一个模因或非模因内容来清理我
的
浏览 2
提问于2020-06-16
得票数 1
回答已采纳
2
回答
Tensorflow对象-API:将ssd
模型
转换为
tflite
并在python中使用它
、
、
、
、
因为我找不到这样
的
答案,所以我尝试转换一个公共
模型
()。我试图
在
python中直接使用这些
模型
,但是结果就像垃圾一样。 下面是我使用
的
代码,我遵循了这个。我尝试了
不同
浏览 8
提问于2021-09-24
得票数 0
1
回答
TensorFlow Lite GPU计算比
CPU
计算慢得多
、
、
我已经将
模型
从常规
的
TF 1.x会话转换为.
tflite
文件,方法是:首先创建一个检查点
和
一个保存
的
失重图形(.pbtxt),然后使用freeze_graph()函数将
模型
冻结到一个具有图形权重
的
.pb中,最后
在
冻结
的
模型
文件
上
运行
tflite
_convert命令。在那之后,我把
模型
放入Android Studio,并在我
的
摩托罗拉Moto G7
浏览 36
提问于2020-07-15
得票数 1
1
回答
移动GPU
上
的
Mxnet
、
、
、
、
由于我担心手机
的
执行时间性能,我想知道它是否运行在移动电话
的
GPU (Android/iOS)
上
。文档中提到,它可以使用多个
CPU
和
GPU进行培训,但还不清楚是否可以
在
移动电话
上
使用GPU进行推理。它提到了对BLAS
的
依赖,因为它似乎
在
移动上使用
CPU
。有人能告诉我是否可以使用移动GPU
和
mxnet进行推理吗?如果没有,我
的
其他选择是什么?
浏览 2
提问于2016-11-18
得票数 1
回答已采纳
1
回答
如何只
在
CPU
上
运行
tflite
、
我有一个
tflite
模型
,运行在珊瑚USB,但我也运行在
CPU
(作为通过一些测试时,珊瑚USB是不可用
的
)。从下载
模型
和
标签
的
地方。我想加载一个替代版本
的
相同
的
模型
,让我执行没有珊瑚USB加速器(即仅在
CPU
)。w
浏览 2
提问于2021-02-22
得票数 1
回答已采纳
2
回答
如何设置Tensorflow Lite C++输入
我正在尝试用c++
模型
测试简单
的
tensorflow lite TensorflowLite代码。它得到两个浮动
和
做xor。然而,当我改变输入时,
输出
不会改变。我想行interpreter->typed_tensor<float>(0)[0] = x是错误
的
,所以输入没有正确
的
应用。我应该如何更改代码才能正常工作?
tflite
::InterpreterBuilder(*model, resolver)(&interpreter);
浏览 0
提问于2018-05-03
得票数 7
回答已采纳
1
回答
tflite
合并
模型
与条件
预测
、
、
、
、
如何利用
tflite
中前两个
模型
的
预测
条件,将三个CNN
模型
合并成一个单一
模型
? 我首先尝试解释我
的
实际解决方案和我实现
的
步骤。我
的
想法是,我训练了三个
不同
的
模型
来区分四个最后
的
类,前两个
模型
预测
两个
输出
(一个最后级(fc)
和
一个子级(sc)),第三个
模型
预测</em
浏览 29
提问于2022-03-15
得票数 0
1
回答
将预先训练
的
Tensorflow
模型
转换为Tf-lite时
的
Nan
输出
、
我们
在
转换经过预先训练
的
Tensorflow
模型
时遇到了问题,我们将其作为以下文件snapshot_140.ckpt.meta对于tensorflow lite,当我们使用转换后
的
tflie文件进行
预测
时,所有的
预测
都在Nan而正常
的
tensorflow
模型
加载时给出了正确
的
回归
预测
。然后,将
TFli
浏览 1
提问于2019-05-22
得票数 2
0
回答
基于Tensorflow Lite
的
Android Java人脸表情识别
、
、
、
、
我已经训练
和
测试它在python中使用预先训练
的
VGG-16
模型
改变顶部3层来训练我
的
测试图像,以加快我使用Tensorflow
的
训练过程。测试准确率为62%。我已经将我
的
模型
的
架构
和
权重保存在train_model.h5文件中。 现在我必须在Android手机上实现它。为此,我使用了Tensorflow-Lite,因为它适用于android手机。这是我
在
转换时所做
的
: from tensorflo
浏览 33
提问于2019-05-15
得票数 3
点击加载更多
相关
资讯
不同发酵类型的酱油在微生物群落和代谢产物上具体有哪些不同?
TensorFlow推出新接口,简化 ML移动端开发流程
跨越重重“障碍”,我从 PyTorch 转换为了 TensorFlow Lite
TensorFlow Lite Android部署介绍
Render社区将决定是否在Solana链上建立新的燃烧和铸造平衡模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券