腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9240)
视频
沙龙
1
回答
Sagemaker
Tensorflow
2.0
端点
、
、
我有一个
tensorflow
2.0
模型,我想部署到AWS
sagemaker
端点
。我已经将模型移到了S3存储桶中,并执行了以下代码,但由于没有TF
2.0
图像,因此出现了下面的错误。原因:镜像'520713654638.dkr.ecr.eu-west-1.amazonaws.com/
sagemaker
-
tensorflow
:
2.0
-cpu-py2‘不存在..from
sagemaker
.
tensorflow
浏览 16
提问于2019-11-19
得票数 0
回答已采纳
4
回答
SageMaker
和
TensorFlow
2.0
、
、
使用AWS运行
TensorFlow
2.0
的最佳方法是什么? 到今天(2019年8月7日),AWS还没有提供
TensorFlow
2.0
,所以我的理解是我需要构建自己的。
浏览 1
提问于2019-08-07
得票数 13
回答已采纳
1
回答
为什么使用Boto3用AWS创建
端点
要花这么长时间?
、
、
、
、
从存储的
端点
配置创建我的
端点
需要45分钟。(我测试了它,它也起作用了)。这是我第一次使用boto3来做这件事,而以前我只是使用
Sagemaker
来根据
端点
配置创建
端点
。非常感谢对我的代码的建议: EndpointNam
浏览 4
提问于2020-08-31
得票数 2
回答已采纳
1
回答
AWS是否支持gRPC预测请求?
、
、
、
我在本地模式下从估计器中部署了一个模型,当试图使用gRPC调用
Tensorflow
服务(TFS)预测
端点
时,我得到了以下错误:import predict_pb2from
tensorflow
_serving.apis/公开的,而不是gRPC
端点
,尽管它似乎正在运行: ensorflow_serving/model_servers/serv
浏览 26
提问于2022-10-18
得票数 0
回答已采纳
2
回答
TensorFlow
服务与
TensorFlow
推断(
SageMaker
模型的容器类型)
、
我对
TensorFlow
(和
SageMaker
)相当陌生,而且还停留在部署
SageMaker
端点
的过程中。我最近刚刚成功地创建了一个已保存的模型类型模型,该模型目前正用于服务一个示例
端点
(模型是外部创建的)。但是,当我检查用于
端点
的映像时,它会说‘./
TensorFlow
-推断’,这不是我想要进入的方向,因为我想使用一个
SageMaker
TensorFlow
服务容器(我遵循了官方的
TensorFlow</em
浏览 1
提问于2020-07-14
得票数 2
回答已采纳
3
回答
如何对AWS
Sagemaker
托管的自定义
Tensorflow
模型使用多个输入
、
、
、
我有一个经过训练的
Tensorflow
模型,它使用两个输入来进行预测。我已成功地在AWS
Sagemaker
上设置并部署了该模型。from
sagemaker
.
tensorflow
.model import TensorFlowModel
浏览 0
提问于2019-06-07
得票数 1
2
回答
在单个
端点
中的
Sagemaker
上部署多个经过预先训练的模型(tar.gz文件)
、
、
、
、
我们采取了以下步骤:以.h5格式保存。使用以下代码成功地在
端点
中部署了单个模型:
sagemaker
_model = TensorFlowModelpredictor.predict(data.values[:,0:])现在的问题是,我们不能使用5个不同的部署语句
浏览 0
提问于2020-08-28
得票数 1
回答已采纳
2
回答
如何使用SDK调用示例-notebook for Amazon
SageMaker
中的Iris
端点
、
我正在尝试从示例笔记中提供的
tensorflow
_iris_dnn_classifier_using_estimators调用
端点
。在示例中,它使用在部署过程中生成的相同python对象调用
端点
。在一个大型系统中,我需要知道如何在没有这个对象的情况下调用这个
端点
,并且可能使用不同的语言。这是我尝试过的:import boto3 query = [6.4, 3.2, 4
浏览 13
提问于2018-01-17
得票数 0
2
回答
模型部署后调用
端点
:[Err 104]对等方重置连接
、
我已经部署了我训练有素的模型在
tensorflow
使用Json和重量文件。但奇怪的是,在我的笔记本里,我没有看到它写着“终结点成功建造”。相反,我从控制台中找到了
端点
号。import
sagemaker
predictor=
sagemaker
.
tensorflow
.model.TensorFlowPredictor(endpoint_name,
浏览 2
提问于2019-04-28
得票数 0
回答已采纳
1
回答
利用
SageMaker
从
TensorFlow
多模型
端点
接收解析错误
、
、
我们目前正在将模型从单个模型
端点
移动到AWS
SageMaker
中的多模型
端点
。使用预构建的
TensorFlow
容器部署多模型终结点后,在调用predict()方法时会收到以下错误:我像这样调用
端点
: data = np.random.rand(n_samples, n_
浏览 7
提问于2022-01-04
得票数 2
1
回答
服务于亚马逊
SageMaker
的
Tensorflow
、
、
、
、
我面临着在AWS
SageMaker
上服务
tensorflow
模型的问题。我在
SageMaker
环境之外训练了模型,现在我有了一个savedmodel.pb文件,我需要将它部署到
SageMaker
端点
上。因此,我简单地压缩了模型文件并将其上传到一个S3桶中。现在,在尝试创建
端点
时,我在Cloudwatch日志中得到以下错误:
tensorflow
_serving/sources/storage_path/file_system_stora
浏览 0
提问于2019-02-11
得票数 2
2
回答
SageMaker
脚本模式服务
、
、
、
我使用
tensorflow
.keras脚本模式训练了一个
SageMaker
模型,如下所示:from
sagemaker
.
tensorflow
import
TensorFlow
source_dir='src',train_instan
浏览 0
提问于2019-01-27
得票数 2
回答已采纳
1
回答
在亚马逊
SageMaker
中进行预测之前,对输入数据进行预处理
、
、
、
、
我有一个我们自己训练的Keras/
tensorflow
模型,它做与图像相关的预测。我已经按照这个在
Sagemaker
中部署了模型,并且可以调用
端点
进行预测。现在,在我的客户端代码中,在通过调用
Sagemaker
端点
进行预测之前,我需要下载图像并进行一些预处理。我希望在
SageMaker
中完成整个过程,而不是在客户端执行此操作。我该怎么做?看起来我需要更新这里提到的入口点python代码train.py:
sagemaker
_model = TensorFlow
浏览 1
提问于2019-02-26
得票数 3
1
回答
AWS安装终端接收客户端(400)错误
、
、
我使用
sagemaker
端点
部署了一个
tensorflow
多标签分类模型,如下所示: 0.00080883503, 0.00023958087,但是,我无法从其他笔记本或
sagemaker
工作室向已部署的
端点
发送请求。region=us-west-2#lo
浏览 17
提问于2022-11-28
得票数 0
1
回答
亚马逊
SageMaker
不支持的媒体类型:图像/jpeg
、
、
、
、
我用
Tensorflow
和Keras训练了我自己的模型,用于图像分类,我正在尝试在亚马逊的
SageMaker
中部署和使用它。我完成了将mymodel.h5文件转换为mymodel.tar.gz文件并将其移动到
SageMaker
S3桶的过程。然后,在一个教程之后,我使用以下方法创建了
SageMaker
模型:
sagemaker
_modelframework_ve
浏览 7
提问于2022-04-08
得票数 1
1
回答
ValueError同时将
tensorflow
模型部署到
SageMaker
、
、
、
、
我想把我受过训练的
tensorflow
模型部署到amazon,我正在遵循这里的官方指南:使用jupyter笔记本部署我的模型。') '520713654638.dkr.ecr.us-west-1.amazonaws.com/
sagemaker
-
tensorflow
:1.12-cpu-py3 :错误托管
端点
2019-08-07-22-57-59-57-547:失败原因:图像‘520713654638.dkr.ecr.us-west-1.amazonaws.com
浏览 1
提问于2019-08-07
得票数 0
1
回答
将预先培训的Keras加载到
Sagemaker
局部分类工作,但
sagemaker
分类更改
、
、
、
、
我的目标是将模型部署在
sagemaker
上,并使用lambda函数与
sagemaker
端点
进行接口并进行预测。上的
端点
时,会得到不同的结果。下面是将模型部署为
端点
的代码:from
tensorflow
import keras__version__ from
浏览 1
提问于2021-05-12
得票数 0
回答已采纳
1
回答
将
tensorflow
模型部署在
sagemaker
异步
端点
上,并包含一个inference.py脚本
、
我正在尝试将
tensorflow
模型部署到
sagemaker
上的异步
端点
。我以前使用以下代码将相同的模型部署到实时
端点
:predictor =
tensorflow
_serving_model.deploy(initial_instan
浏览 12
提问于2022-09-03
得票数 0
回答已采纳
2
回答
如何使用AWS调用
SageMaker
端点
(
、
我试图使用aws从调用虹膜
端点
。我尝试使用以下命令:--endpoint-name
sagemaker
-
tensorflow
-py2-cpu-2018-03-19-21-27
浏览 0
提问于2018-03-20
得票数 3
回答已采纳
3
回答
如何使
SageMaker
的参数可用--流动
端点
、
、
我希望使
SageMaker
中的服务
端点
可以使用一些超参数。培训实例可以使用以下超级参数访问输入参数: role=roleevaluation_steps=None,但是,在部署
端点
时在source_dir类中定义的
sagemaker
.
tens
浏览 0
提问于2018-03-22
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
云点播
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券