腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
TensorFlow
服务
:
使用
REST
Api
向
TFServing
模型
发送
多个
输入
的
字典
?
、
、
我
使用
TFServing
为BERT
模型
提供
服务
,并希望
使用
REST
API
提取隐藏层。(model, model_save_path)
使用
saved_model_cli查看已保存
的
模型
,如下所示。调用,我在请求中构造
输入
,以使
模型
期望与我在正常推理期间
的
操作方式相匹配(根据
TFServing
documentation https:/
浏览 116
提问于2021-04-02
得票数 0
1
回答
Tensorflow
serving(docker):如何获取客户端
发送
的
grpc请求日志?
、
我已经
使用
docker启动了
tensorflow
服务
: -v /
tfserving
/models:/models \
tensorflow
/serving:1.14.0 \ --model_config_fileb
浏览 40
提问于2019-11-22
得票数 2
1
回答
对
TFServing
的
请求与std::bad_alloc失败
、
、
、
我想
使用
TFServing
进行预测,但是,当我调用
TFServing
的
API
时,码头容器就会崩溃,但会出现以下错误:terminate called after throwin
浏览 9
提问于2022-10-05
得票数 0
回答已采纳
1
回答
TFServing
和KFServing在KubeFlow上有什么不同?
、
、
、
TFServin和KFServing都将
模型
部署在Kubeflow上,让用户可以轻松地将
模型
作为
服务
使用
,不需要了解Kubernetes
的
细节,隐藏底层。
TFServing
来自
TensorFlow
,它也可以在Kubeflow或独立上运行。KFServing来自Kubeflow,它可以支持
多个
框架,如PyTorch、
TensorFlow
、MXNet等。 我
的
问题是,这两个项目的主要区别是什么?如果我想在生产中推
浏览 5
提问于2020-04-03
得票数 4
回答已采纳
3
回答
使用
Flask
使用
REST
API
提供经过训练
的
Tensorflow
模型
?
、
、
、
、
我有一个经过训练
的
Tensorflow
模型
,我想用
REST
API
提供预测方法。我能想到
的
是
使用
Flask构建一个简单
的
REST
API
,该
API
接收JSON作为
输入
,然后调用
Tensorflow
中
的
predict方法,然后将预测结果返回给客户端。
浏览 1
提问于2016-04-08
得票数 10
1
回答
tfserving
中是否有用于重新加载特定版本
模型
的
函数或
api
?
、
我正在
使用
tfserving
为特定版本
的
模型
提供
服务
,该版本可以在任何时候被重写。config { base_path: "/var/models/common" model_platform: "
tensorflow
(位于/var/models/common/0上)时,
rest</e
浏览 1
提问于2021-09-03
得票数 1
3
回答
如何
使用
tensorflow
服务
使
tensorflow
中心嵌入可用?
、
、
我正在尝试
使用
来自
tensorflow
集线器
的
嵌入模块作为servable。我是
tensorflow
的
新手。目前,我
使用
嵌入作为查找,将句子转换为嵌入,然后
使用
这些嵌入来查找与另一个句子
的
相似度。我当前将句子转换为嵌入
的
代码是: session.run([tf.global_variables_initializer(), tf.tables_initializer如何<
浏览 1
提问于2018-06-11
得票数 8
1
回答
在哪里可以找到
tensorflow
服务
URL?
、
、
、
、
/
tensorflow
-servings: build: ./some_model_dir - 8501:8501 我相信这是由于不正确
浏览 3
提问于2021-09-30
得票数 3
回答已采纳
1
回答
TensorFlow
服务
:获取
输入
形状和标签
、
我目前正在尝试设置一个
TensorFlow
服务
客户机,该客户端
的
任务是处理以下格式
的
消息队列: "model_url":"http://path/to/some/model",} 换句话说,每一条信息都表示应该
使用
哪一种
模型</
浏览 1
提问于2019-01-29
得票数 1
回答已采纳
2
回答
google AI
模型
服务
与kfsering
、
、
我们要做
的
是
模型
服务
基础设施。我正在比较和。但是我找不到足够
的
文档来描述google ai
服务
的
特性以及它是如何实现
的
。似乎gcloud ai-platform versions create可以创建
模型
版本资源并开始
服务
,这是我唯一能找到
的
点。谷歌人工智能
服务
和kfserving之间
的
关系是什么?2,gcloud ai-platform versions cre
浏览 20
提问于2020-04-16
得票数 1
1
回答
在
使用
base64编码镜像
的
同时,如何
使用
tensorflow
服务
部署keras
模型
?
、
、
、
在将keras
模型
引入生产环境时,
tensorflow
服务
通常用作
REST
API
。它有一些缺点,因为图像数据需要与网络
输入
层相同
的
输入
格式,例如json中具有形状(300,300,3)
的
数组。实现这一点
的
唯一方法似乎是将
tensorflow
服务
API
封装到另一个
服务
中。 如何才能让
tensorflow
提供一个接受base64编
浏览 8
提问于2019-07-15
得票数 0
回答已采纳
2
回答
Apache火花与机器学习-在生产中
的
应用
、
我想做
的
是: 假设ml
的
培训过程由笔记本电脑处理,一旦满足了
模型
要求
api
相关
的
代码仍将在一个节点上运行,而在wich submit上
的
那个代码将被调用(如果我
浏览 5
提问于2017-04-21
得票数 1
2
回答
使用
java客户端
使用
张量流
服务
初始
模型
、
、
、
我所做
的
是,我在Windows上
使用
Docker部署了张量流
服务
。我在张量流
服务
中
使用
初始
模型
。它已经开始运行了。现在,
使用
java,我希望将图像从浏览器上传到这个在
tensorflow
服务
中运行
的
初始
模型
,作为响应,我应该获得类名。 任何示例都会有帮助。
浏览 0
提问于2018-08-06
得票数 0
1
回答
Tensorflow
服务
中
的
调试批处理(没有观察到效果)
、
、
我有一个小型
的
web
服务
器,它可以获得句子
的
输入
,并且需要
使用
Tensorflow
服务
返回
模型
预测。它可以很好地
使用
我们
的
单个GPU,但是现在我希望能够进行批处理,这样
Tensorflow
服务
就可以在GPU上对传入
的
句子进行分组,然后将它们合并在一起处理。我
使用
的
是和,
使用
了
Tensorflow</em
浏览 0
提问于2017-05-29
得票数 9
回答已采纳
1
回答
如何从其他脚本访问
服务
器上运行
的
终端Python进程
、
、
、
、
考虑情况: 我有一个安装了Python、
tensorflow
和其他库
的
Ubuntu
服务
器。我
的
代码是python脚本,它加载了几个
模型
,其中一些
模型
是预先训练过
的
向量.bin,还有一些文件来自
服务
器文件夹,等等。当我在终端上运行脚本时,它会启动交互式会话,在其中
输入
一些文本并将脚本输出回我(比如聊天机器人)。在回答时,它叫我的人工智能
模型
(
Tensorflow
,keras)。问题:如何从其他pyth
浏览 0
提问于2019-05-24
得票数 0
1
回答
TF - hub通用句子编码器模块保存和重新加载?
、
、
、
我
使用
的
是通用句子编码器预先训练好
的
模型
,命令如下:import
tensorflow
_hub as hub ) 如何为RESTFUL
API
重新加载保存
的
模型
?
浏览 1
提问于2019-02-20
得票数 2
3
回答
std::bad_alloc
的
流量
服务
失败
、
、
我试图
使用
docker组合(
服务
模型
+微
服务
)运行
tensorflow
服务
,但是
tensorflow
服务
容器失败,错误出现在下面,然后重新启动。.
tensorflow
-serving(core dumped)
浏览 15
提问于2022-09-12
得票数 0
2
回答
Tensorflow
服务
:什么时候
使用
它,而不是简单地推断瓶内
服务
?
、
、
、
我正在为
使用
对象检测
API
训练
的
模型
服务
。我就是这样做
的
:
浏览 2
提问于2018-01-30
得票数 16
2
回答
如何
使用
亚马逊网络
服务
部署
多个
TensorFlow
模型
?
、
、
、
我已经训练了10个不同
的
TensorFlow
模型
来进行样式转换,基本上每个
模型
都负责根据样式图像对图像应用滤镜。因此,每个
模型
都是独立运行
的
,我希望将其集成到一个应用程序中。有没有办法
使用
AWS部署这些
模型
? 我尝试
使用
API
部署这些
模型
,然后
使用
AWS Lambda
的
端点,最后
使用
API
Gateway创建SageMaker。
浏览 2
提问于2019-06-11
得票数 1
1
回答
如何调试"INVALID_ARGUMENT:在签名中找不到
的
输入
张量别名“
、
我试图访问我
的
tensorflow
服务
模型
,它有一个签名,从这个代码段可以看到: inputs={"phase_featurestag_constants.SERVING],builder.save() 它在tf中加载,
使用
具有以下内容<
浏览 10
提问于2017-05-08
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券