腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
从
tensorflow
api
检索
所有
托管
模型
、
基于
api
的documentation -似乎你只能查询一个已知的
模型
来获取信息。 我希望查询
所有
已知
模型
的
tensorflow
服务。
浏览 26
提问于2019-01-23
得票数 1
1
回答
在GCP上提供
tensorflow
模型
?
、
、
、
最近,我尝试在GCP上
托管
一个自定义图像分类
tensorflow
保存的
模型
,并使用REST
API
发送预测请求。我已经在谷歌的上
托管
了这个
模型
。基本上,我会用手机拍一张照片,然后用REST发送给我的
模型
。不幸的是,在参考了本文档之后,我似乎需要OAuth令牌才能通过预测请求。我不想要这个功能。我不希望用户需要登录才能发送预测请求。我想知道是否有方法可以
托管
这个
tensorflow
模型
,并从我的React Native
浏览 2
提问于2020-11-17
得票数 0
1
回答
从
文件服务器加载
TensorFlow
.js
模型
、
我正在尝试通过HTTP协议加载
Tensorflow
.js
模型
。
Tensorflow
.js要求我将'model.json‘和'weights.bin’文件存储在同一个文件夹中。现在,在本地环境中,我
从
localhost加载
模型
(Http://127.0.0.1:8080),它运行良好。 但是,实际应用程序只接受HTTPS协议。因此,我尝试将它们与
模型
和重量一起存储在S3中的同一个桶中,并通过Lambda调用,但似乎只
检索
了'
浏览 3
提问于2022-02-14
得票数 1
1
回答
如何正确保存keras
模型
以便能够使用hub.Module()加载?
、
、
当我试图保存
模型
时,我会收到一个错误。from __future__ import print_function import osimport
tensorflow
as tfimport matplotlib.pyplot as plt def create_model(m,train_image_data) file =
浏览 0
提问于2019-04-29
得票数 1
1
回答
保存
Tensorflow
模型
并将其加载到
Tensorflow
.js中
、
、
、
但是,我不能直接将这四个文件加载到
tensorflow
.js。show_metric=True, run_id=MODEL_NAME) print('MODEL SAVED:', MODEL_NAME) 此代码片段的最后两行用于保存
模型
我可以在一个烧瓶应用程序中加载
模型
,但我想将它移植到
tensorflow
.js。有人能给我介绍一下如何做到这一点吗?
浏览 1
提问于2018-10-08
得票数 0
2
回答
loadFrozenModel是否意味着我无法访问层?
、
我经常通过调用tf.loadModel('https://storage.googleapis.com/tfjs-models/tfjs/mobilenet_v1_0.25_128/model.json')来加载
模型
因此,我
从
tensorflowhub获得了我需要的版本,在
tensorflow
_converter上运行它,并得到了两个文件(.pb和file文件)。加载方式如下: const model = await tf.loadGraphModel(mode
浏览 0
提问于2019-03-01
得票数 0
1
回答
如何将CustomVision.ai
TensorFlow
/
TensorFlow
Lite
模型
转换为与TFLite对象检测
API
一起工作的对象?
、
、
、
我们有一个
从
CustomVision.ai导出的
模型
(它支持导出
TensorFlow
.pb、
TensorFlow
Lite .tflite、保存的model .pp格式)。我们希望将此
模型
集成到一个现有的应用程序中,该应用程序使用TFLite对象检测
API
,该应用程序期望这些输入和输出: --input_arrays=normalized_input_image_tensorTFLite_Detection_PostProcess:1','TFLite_Detect
浏览 11
提问于2021-05-25
得票数 0
1
回答
预测Django中的
API
、
、
我有一个
Tensorflow
模型
,我使用
TensorFlow
serving保存了它。现在,我希望
从
数据库中
检索
结果,并使用DJANGO中的
API
进行预测。该
模型
可以使用curl
从
UBUNTU调用,并给出正确的预测: 我已经尝试
从
DJANGO调用
API
。
浏览 19
提问于2020-09-18
得票数 1
回答已采纳
1
回答
具有自定义响应结构的Google预测
API
我目前正在探索如何使用Google来
托管
一个
模型
,并使用该
模型
托管
一个预测端点。有一件事我仍然不理解,那就是来自预测
API
本身的响应格式: 如果可能的话,我应该做什么(例如,更改我的
TensorFlow
代码)?配置文件?)?到目前为止
浏览 1
提问于2017-04-28
得票数 0
回答已采纳
1
回答
在Tf.Estimator
API
中重用嵌入变量进行推理
、
、
、
在使用seq2seq体系结构的网络NMT中,在推理过程中,需要在训练阶段训练嵌入变量作为GreedyEmbeddingHelper或BeamSearchDecoder的输入。
浏览 0
提问于2018-03-25
得票数 0
回答已采纳
2
回答
Keras中意外的关键字参数'ragged‘
、
、
尝试使用以下python代码运行经过训练的keras
模型
:from keras.models import版本: Keras v2.3.1
tensorflow
v1.13.1Traceback (most recent call last): File "/home/pi/Documents
浏览 1
提问于2019-11-15
得票数 30
回答已采纳
1
回答
用于
Tensorflow
.js使用的Keras部署
、
、
、
、
我需要能够部署用于
Tensorflow
.js预测的keras
模型
,但是似乎只支持TFLite对象,而则支持这个对象。请注意
Tensorflow
.js部分:有很多指向的指针,但与我正在寻找的最接近的
API
函数是函数,它同时需要.pb和weights_manifest.json。我正在寻找的是一条
从
Keras => Firebase/GCloud =>
Tensorflow
.js.的简单途径。
浏览 3
提问于2020-07-28
得票数 0
回答已采纳
1
回答
从
经过训练的神经网络创建实时运行
模型
的最佳实践
、
、
、
、
假设我在python (或任何其他nn框架)中使用
tensorflow
,我已经成功地训练了具有n个隐藏层的神经网络。在这一点上,我得到了权重和偏差的值。在这一点上,我想在生产中使用nn
模型
。据我理解,在production中运行
模型
并不是最好的实践,因为它实际上太慢了(python),而且这样做很笨重(如果我错了,请纠正我)。因此,我想用C#或C++ (或任何其他语言)重新创建nn
模型
,是否需要根据每个神经元的权重和偏倚在代码中重新创建每一层的
所有
数学?
浏览 3
提问于2021-01-25
得票数 0
3
回答
Android:获取错误:任务执行失败“:app:processDebugGoogleServices”在添加新的依赖项后
、
、
、
、
annotationProcessor "com.github.hotchemi:permissionsdispatcher-processor:3.1.0" apply
浏览 0
提问于2018-08-25
得票数 0
回答已采纳
1
回答
Tensorflow
端口
模型
从
1.x到2.x
、
、
、
目前,我正在使用一个可用的1.x
模型
来进行对象检测。为此,我正在用我自己的数据重新训练这个
模型
,并可以检测到我想要的对象。我想将我
所有
的逻辑移植到2.x版本,以便使用新发布的工具将
模型
转换为TFLite。 一旦我将代码修改为2.0,我是否需要重新训练参考
模型
的权重(例如coco)?或者只重新训练我的自定义数据?
浏览 10
提问于2020-04-11
得票数 1
回答已采纳
1
回答
如何在
Tensorflow
2.x对象检测
API
中导出冻结推理图?
、
在使用
Tensorflow
2.x对象检测
API
培训自定义对象检测
模型
时,我一直在学习以下教程。以下是我使用的两个主要链接。在我尝试导出经过训练的推理图之前,一切似乎都很顺利。基本上,在
TensorFlow
1.x中,有一个脚本,用于将经过训练的
模型
检查点导出到单个冻结推理图。在
TensorFlow
2.x中,这个脚本不再工作,而是使用输出SavedModel目录和其他内容,而不是冻结的推理图。这是因为在TF 2.x中,冻结
模型
已被废弃。我希望能够
从</e
浏览 4
提问于2021-11-17
得票数 3
1
回答
如何访问TF集线器模块中的伯特中间层输出?
、
、
、
、
有谁知道如何访问BERT在
Tensorflow
集线器上
托管
的
模型
的中间层的输出? 运行[i.values() for i in tf.get_default_graph
浏览 1
提问于2019-03-25
得票数 4
1
回答
带有TensorflowLite的Kotlin多平台形
、
、
、
、
在共享逻辑中使用Kotlin多平台
模型
和张量流lite
模型
进行项目开发。目标是使用相同的张量流
模型
,使用相同的kotlin代码,使用android
从
该
模型
中
检索
数据。我已经用kotlin的共享逻辑探索了许多kotlin项目,并将其应用于安卓和iOS,但我对tenserflow
模型
表示怀疑。
浏览 3
提问于2020-02-16
得票数 0
回答已采纳
1
回答
ml-engine是否提供了类似于Google Cloud blackbox的功能?
由于谷歌云预测
API
已被弃用(),ml-engine是否提供了类似的黑盒?
浏览 0
提问于2017-05-19
得票数 0
1
回答
如何将pytorch
模型
集成到动态优化中,例如在Pyomo或gekko中
、
、
、
假设我有一个pytorch
模型
,描述了某个多维系统基于自身状态x和外部执行器u的演化,所以x_(t+1) = f(x_t,u_t),f是pytorch的人工神经网络。类似于:s.t.:x_(t+1) = f(x_t,u_t) 此外,我还对x中的一些变量有一些上界和下界。
浏览 28
提问于2021-05-26
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券