腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Tensorflow
服务
REST
API
抛出
错误
、
、
、
我已经在
tensorflow
版本'1.10.0‘中为IRIS数据集构建了一个非常简单的分类模型。代码在jupyter notebook中运行良好。我正在尝试使用docker通过
tensorflow
服务
进行部署和
服务
。虽然docker启动了,但我无法得到好的结果。
Tensorflow
服务
对我来说有点新。我使用的命令和我得到的
错误
输出如下- curl -d '{"instances": [1.0, 2.0, 5.0,4.2]}
浏览 19
提问于2018-12-21
得票数 1
回答已采纳
1
回答
TensorFlow
服务
频繁的请求超时
、
、
日志和截图减少加载和
服务
模型的数量,但不是预期的解决方案,因为这需要设置多个不同的GPU实例,每个实例只加载和
服务
模型的一个子集。系统信息 操作系统平台和发行版(例如,Linux Ubuntu 16.04):Ubuntu 16.04
TensorFlow
Serving安装自(源代码或二进制):sou
浏览 37
提问于2018-09-03
得票数 5
1
回答
如何从其他脚本访问
服务
器上运行的终端Python进程
、
、
、
、
考虑情况:问题:如何从其他python访问这个正在运行的会话?我的意思是,我想把它用作一个函数:发送文本并接收回复。我读过这个和类似的答案,但不确定那个正确的解决方案(似乎不是完整的): 我要问的是,通常由
REST
服务
器
浏览 0
提问于2019-05-24
得票数 0
1
回答
如何使用
REST
端点启动
TensorFlow
服务
ModelServer
、
、
我试图利用新的可能性向
TensorFlow
ModelServer发送HTTP请求。但是,当我尝试运行以下参数时,它不识别--
rest
_
api
_port参数: --model_name=half_plus_three \ --model_base_path=$(pwd)/serving/
tensorflow
_serving/servab
浏览 0
提问于2018-06-28
得票数 0
回答已采纳
1
回答
https上的
Tensorflow
服务
、
、
我需要将
tensorflow
服务
配置为在https/ssl上为
REST
API
工作。./
tensorflow
_model_server --
rest
_
api
_port=9000 --model_name=t2v.pb --model_base_path=/apps/tfmdl_out/mdl1如何在SSL上提供
REST
API
?伊利亚
浏览 0
提问于2018-10-13
得票数 1
3
回答
std::bad_alloc的流量
服务
失败
、
、
我试图使用docker组合(
服务
模型+微
服务
)运行
tensorflow
服务
,但是
tensorflow
服务
容器失败,
错误
出现在下面,然后重新启动。microservice | To enable them in other operations, rebuild
TensorFlow
with the appropriate compiler flags.
tensorflow
-serving | terminate call
浏览 15
提问于2022-09-12
得票数 0
1
回答
TF - hub通用句子编码器模块保存和重新加载?
、
、
、
我使用的是通用句子编码器预先训练好的模型,命令如下:import
tensorflow
_hub as hub ) 如何为RESTFUL
API
浏览 1
提问于2019-02-20
得票数 2
1
回答
Tensorflow
服务
:需要向只接受gRPC请求的TF
服务
器发出HTTP请求
、
、
、
、
我的客户机在一个
服务
器上,在这个
服务
器上我只能向任何
服务
器发出HTTP请求。
Tensorflow
托管在一台只接受gRPC请求的AWS机器上。正在寻找一些线索来实现这种交流吗?编辑: 2018年6月12日
服务
器: $
tensorflow
_model_server --
rest
_
api
_port=8501 \--model_name=ha
浏览 0
提问于2018-05-25
得票数 0
2
回答
tensorflow
_model_server如何将其HTTP绑定到0.0.0.0 (默认本地主机)上?
、
我发现docker映像
TensorFlow
/serving实际上使用可执行的
tensorflow
_model_server启动
服务
器。因此,我附加到一个码头容器手动启动
服务
器。我的命令:
tensorflow
_model_server --model_base_path=/root/serving/my_image_classifier/ --
rest
_
api
_port=8501--model_name=ImageCla
浏览 2
提问于2018-11-27
得票数 4
5
回答
AttributeError:模块'
tensorflow
‘没有属性'gfile’
、
、
我用
tensorflow
2.0在Google 上训练了一个简单的mnist模型,并将其保存为.json格式。查看我编写代码的Colab。然后运行命令它显示了
错误
AttributeError:模块'
tensorflow
‘没有属性'gfile’ 帮助轻松地将经过培训的
ten
浏览 4
提问于2019-04-09
得票数 18
回答已采纳
2
回答
代理码头运行过程中面临
错误
--流动
服务
图像
我训练过一个
Tensorflow
对象检测模型。我试图使用码头上的
tensorflow
服务
图像提出一个
REST
请求。(听从的指示) docker run -t --v "$TESTDATA/my_model:/models
浏览 1
提问于2019-05-23
得票数 1
回答已采纳
1
回答
部署python应用程序
、
、
、
、
我已经创建了一个python应用程序,其中包含调用PyCharm集成开发环境中的机器学习代码的
rest
。我想在IIS上部署
rest
apis。请指点一下。
浏览 1
提问于2020-08-08
得票数 1
1
回答
Tensorflow
服务
:在基本路径half_plus_two下找不到可
服务
/models的版本
、
我正在为Docker提供
Tensorflow
服务
(关于docs,请参阅 )。
服务
器在我们的潜艇上运行。当运行容器的命令如下所示时,我成功地请求了我的模型: --model_name=${MODEL_NAME} --model_base_path=${MODEL_BASE_PATH}/${MODEL_NAME} 对
服务
器的curl请求返回预
浏览 3
提问于2020-11-12
得票数 1
1
回答
Serving
TensorFlow
预建线性分类器估计器模型
、
、
、
我正在尝试使用我们自己的CSV数据集运行一个经过训练的教程模型,使用
TensorFlow
Serving,每行由4个INT值(最后一个是标签)组成:这是什么可
服务
的,如果我当前的方法当前不起作用,它是如何导出的? 谢谢
浏览 0
提问于2019-07-10
得票数 1
1
回答
在
Tensorflow
服务
容器进入事件循环后Heroku Dyno崩溃
、
、
、
、
我正在尝试使用Docker、
Tensorflow
Serving和Heroku部署我的
Tensorflow
模型。一切正常,但是当TF
服务
容器结束初始化时(当它输出“进入事件循环”时),Heroku Web Dyno突然崩溃。然后它重新启动并再次尝试,但当它再次到达事件循环时,它会崩溃。usr/bin/tf_serving_entrypoint.sh (1) web.1: starting 2020/04/10 15:36:38 -0400 (~ 6s ago) 初始化一分钟后,(当tf
服务</
浏览 30
提问于2020-04-11
得票数 1
回答已采纳
1
回答
在使用base64编码镜像的同时,如何使用
tensorflow
服务
部署keras模型?
、
、
、
在将keras模型引入生产环境时,
tensorflow
服务
通常用作
REST
API
。它有一些缺点,因为图像数据需要与网络输入层相同的输入格式,例如json中具有形状(300,300,3)的数组。实现这一点的唯一方法似乎是将
tensorflow
服务
API
封装到另一个
服务
中。 如何才能让
tensorflow
提供一个接受base64编码图像的keras模型,而不将其包装在另一个
API
中呢?
浏览 8
提问于2019-07-15
得票数 0
回答已采纳
1
回答
使用GenericType的RESTful web
服务
、
、
Double>(); list.add(Math.exp(x));} .target("http://localhost:8080/
Rest
_ws/
浏览 11
提问于2016-07-22
得票数 0
2
回答
如何将Python与颤振应用集成?
、
、
、
我拥有的:我想要的:
浏览 8
提问于2022-05-11
得票数 2
1
回答
如何在
tensorflow
_model_server上查询
REST
?
、
、
/serving/classify$ apt-get install
tensorflow
-model-server$
tensorflow
_model_server --port=9000 --
rest
_
api
_port=9001 --model_base_path=/home/deploy/export ...2019-0
浏览 0
提问于2019-02-22
得票数 1
回答已采纳
1
回答
gRPC
服务
器响应操作系统
错误
,grpc_status: 14
、
、
、
、
通过使用
Tensorflow
服务
示例中的基本gRPC客户端从运行在docker上的模型中获得预测,我得到了以下响应:这就是我的客户目前的样子:import
tensorflow
as tf from <e
浏览 8
提问于2020-02-03
得票数 2
点击加载更多
相关
资讯
如何用 Go 快速编写出 HTTP REST API 服务?
CZ:Binance U本位期货合约Rest服务/API已恢复正常
Python与Django REST framework实现的电脑内网监控软件API服务
14个适用于REST和SOAP服务的开源API测试工具
创建一个容器化的机器学习模型
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券