腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
sagemaker
深度
预测
文件
解析
错误
、
我正在尝试
深度
AR fore投射训练算法。我的训练工作在
解析
jsonlines
文件
时总是失败,出现以下
错误
:行: 1)失败原因ClientError:
解析
json时出错(来源: json行: 1)我正在使用json行格式附加
文件
(json)我尝试过任何帮助来解释为什么
sagemaker
端
解析
器失败会有所帮助!粘贴
文件
内容:{ "TimeStamp":"2017-07-01",“调用次数”:14
浏览 12
提问于2018-08-02
得票数 0
1
回答
调用aws
sagemaker
端点
、
、
我在S3中有一些数据,我想创建一个lambda函数来
预测
我部署的aws端点的输出,然后我再次将输出放在S3中。在这种情况下,是否有必要创建一个api网关,就像在这个中定义的那样?) file = io.StringIO(lines) runtime= boto3.client('runtime.
sagemaker
ContentType='*/*', output = re
浏览 0
提问于2019-02-11
得票数 5
回答已采纳
1
回答
SageMaker
终结点的JSON
解析
错误
?
、
我使用了一个部署在
SageMaker
中的TF模型来进行
预测
。
预测
的输入是一个字符串数组。例如,我可以使用以下命令成功调用它: 'instances': ["Hello world"]from
sagemaker
.tensorflow.model import(input)input = { 'instances'
浏览 28
提问于2020-02-27
得票数 0
2
回答
如何在一次调用中向AWS
Sagemaker
终结点发送多个请求?
、
、
我已经在
SageMaker
端点上部署了一个
深度
学习模型,可以使用
sagemaker
_client.invoke_endpoint请求/获取答案。但是每个invoke_endpoint都接受单个主体。def
sagemaker
_handler(doc): response =
sagemaker
_client.invoke_endpoint
浏览 24
提问于2019-01-17
得票数 1
1
回答
将AWS
SageMaker
ml模型转换为java库。
、
、
、
使用亚马逊网络服务
SageMaker
时,在您完成模型的训练后,
SageMaker
会将模型作为model.tar.gz
文件
输出到指定的S3存储桶中。文档建议的下一步是将模型部署到
SageMaker
上。此外,我还希望在离线情况下仍然利用模型的
预测
。有没有人能够把model.tar.gz放到java库中?你用的是什么工具?你是如何
解析
模型的?
浏览 0
提问于2019-11-25
得票数 0
1
回答
SageMaker
Javascript端点调用
错误
:"CustomerError:无法将有效载荷
解析
为数值“
、
、
、
当我从我的角度前端调用
SageMaker
端点时,我在AWS CloudWatch上遇到了这个
错误
,涉及我的模型从数据中进行推理(以逗号分隔的字符串的形式,目标值在第一个索引中):无法
解析
数值值。1533071820,0.05619,0.05619,0.05611,0.05611,0.006076\n“ ByteBufferbuf = ByteBuffer.wrap(request.getBytes());invokeEndpointRequest.setBody(buf);Use the
SageMaker
API Amaz
浏览 0
提问于2019-01-16
得票数 0
3
回答
亚马逊
SageMaker
BlazingText
、
、
、
、
我使用亚马逊
SageMaker
来达到这个目的。亚马逊
SageMaker
中的BlazingText算法比其他选项产生的结果更快。但我没有看到任何工具来获得
预测
模型或权重。输出只包含矢量
文件
,我无法从该
文件
生成模型。有没有什么方法可以让我用向量
文件
得到模型?我需要这个来
预测
新单词。提前谢谢。
浏览 0
提问于2018-05-09
得票数 2
1
回答
从
SageMaker
批处理
预测
作业输出多个csv
文件
、
、
、
我正在处理一个AWS
SageMaker
(SKlearn)批处理转换作业,其中的
预测
数据很大,因此我需要使用小型批处理(输入.csv被分成更小的.csv
文件
)。我已经完成了这个工作,并输出了一个带有ids和
预测
的.csv
文件
。我的问题是,我不知道如何指示
SageMaker
输出多个
文件
。由于额外的输出是对总体
预测
的聚合,但是
SageMaker
将分别处理每一小批(我假设?)我可以简单地使用boto3并使用它保存额外的
文件</em
浏览 0
提问于2019-08-29
得票数 0
1
回答
如何在本地环境中使用Amazon
Sagemaker
的.joblib模型?
、
、
、
我使用
Sagemaker
在AWS中创建了一个模型。我将model.joblib下载到我的机器上。我正试着用它来做一些
预测
。我可以加载这个
文件
:import mliofilename=r"C:\Users\benki\Downloads\model.tar\model.joblib我试着给“loaded_model”打分并
预测
“loaded_model”,但我只收到
错误
消息,说明“‘ve”没有这些属性。
sagemaker</em
浏览 5
提问于2021-06-03
得票数 0
1
回答
用MLFlow跟踪
SageMaker
估计器
、
、
、
我的项目使用AWS
Sagemaker
的DeepAR进行
预测
。 我想做的很简单。我正在尝试用MLFlow记录
Sagemaker
估计器模型(
Sagemaker
DeepAR )。因为它的"mlflow.
sagemaker
“模块中没有"log_model”函数,所以我尝试使用"mlflow.pyfunc“模块来做日志。不幸的是,它并没有起作用。如何记录
Sagemaker
模型并获取MLFlow生成的cloudpickle和yaml
文件
?我现在的代
浏览 10
提问于2020-04-23
得票数 0
回答已采纳
3
回答
如何解决在aws中部署模型时出现的
错误
?
、
我必须在AWS
Sagemaker
中部署一个定制的keras模型。培训是正确的,但是在部署时我会遇到以下
错误
: 我尝试用本地计算机中的这些
文件
在AWS
Sagemaker
routine just invokes the start fu
浏览 10
提问于2019-11-12
得票数 1
回答已采纳
1
回答
Sagemaker
不以异步方式进行推理
我想用它来处理视频
文件
,因为视频可以有5-10分钟的时间,我不能把所有的帧加载到内存中。当然,我想对每一帧做一个推论。我写过predict_fn -在生成器批处理帧上迭代并使用列表中的模型保存
预测
生成
预测
output_fn -将
预测
转换为json格式,gzip全部用于缩小大小。PyTorch服务的其他设置如下:
SAGEMAKER
_MODEL_SERVER_TIME
浏览 9
提问于2022-05-26
得票数 1
回答已采纳
2
回答
如何为
Sagemaker
编写Tensorflow KMeans估计脚本
、
、
、
、
我试图将Tensorflow tf.contrib.factorization.KMeansClustering估计器与
SageMaker
一起使用,但遇到了一些问题。我的
SageMaker
predictor.predict()调用的输出看起来不正确。群集值太大,因为它们应该是0-7的整数。(分组数设置为8组)。下面是我的
SageMaker
entry_point脚本: #feature_columns = [tf.feature_column.numeri
浏览 1
提问于2018-08-17
得票数 0
回答已采纳
1
回答
如何在AWS
sagemaker
中使用ARIMA模型?
、
、
我已经为时间序列
预测
创建了一个ARIMA模型,并希望部署它以便在API端点使用它。但是我无法找到在亚马逊网络服务
SageMaker
上部署它的方法,我如何部署它。我不想使用DeepAR。或者,有没有办法在
SageMaker
上部署pickle
文件
?
浏览 72
提问于2021-09-20
得票数 1
回答已采纳
1
回答
AWS
SageMaker
-如何加载经过训练的滑雪板模型以用于推理?
、
、
、
我正在尝试将一个经过学习训练的模型部署到端点,并将其作为
预测
的API。我想要使用的只是使用joblib序列化的部署和服务器模型,仅此而已。我读过的每一个博客和
sagemaker
文档都显示,sklearn模型必须经过关于
sagemaker
的培训,才能部署到
sagemaker
中。(model_dir, "model.joblib"))这就是文档中对论点model_dir的说明
SageMaker
将注入您的模型
文件
和子目录(保存保存所保存的
浏览 5
提问于2020-12-06
得票数 3
回答已采纳
2
回答
S3中对多幅图像进行推理的最佳方法?
、
、
根据 亚马逊
SageMaker
图像分类算法支持RecordIO (应用程序/x-记录)和图像(应用程序/x-图像)内容类型进行培训。该算法只支持更好的应用/x图像进行推理。为什么
SageMaker
图像分类不支持RecordIO进行推理?更重要的是,在不需要将图像从S3中移开的情况下,对许多图像运行推断的最佳方法是什么?
浏览 2
提问于2018-04-26
得票数 0
回答已采纳
1
回答
如何在本地部署我在amazon
sagemaker
上训练的模型?
、
、
我在amazon
sagemaker
上使用aws blazingtext算法训练了一个模型,并且我能够使用
sagemaker
部署一个端点。然而,在我的情况下,这并不划算,我想在本地运行它。我所拥有的是经过训练的模型,它保存为我从我的s3存储桶中下载的"model.tar.gz“
文件
。我在网上读到,您可以使用tensorflow和docker镜像部署模型,但我只想使用本地计算机部署使用
sagemaker
创建的模型。从本质上讲,我想做的是: predictor =
sagemaker
.deploy(
浏览 1
提问于2019-07-02
得票数 2
1
回答
如何在火花堆内使用起泡器
、
、
我有一个简单的要求,我需要在火花作业中运行
sagemaker
预测
。我正在试着运行下面的代码from
sagemaker
_pyspark import SageMakerModelfrom
sagemaker
_pyspark.transformation.serializers import ProtobufRe
浏览 7
提问于2022-09-08
得票数 0
回答已采纳
1
回答
如何在amazon
Sagemaker
中部署我们自己的TensorFlow对象检测模型?
、
、
、
如果我尝试在AWS
Sagemaker
中部署/实现相同的模型。它不起作用。我已经在
Sagemaker
中尝试过TensorFlowModel()。但是有一个叫做入口点的参数--如何创建用于
预测
的.py
文件
?
浏览 24
提问于2020-04-23
得票数 1
1
回答
TensorFlow服务将数据作为b64而不是Numpy数组发送
、
、
、
、
我在
SageMaker
端点中有一个TensorFlow服务容器。我可以将一批图像作为Numpy数组,并得到如下
预测
: import numpy as npfrom
sagemaker
.predictor import json_serializer] = 'application/json' # works succes
浏览 16
提问于2019-01-22
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度解析丨文件智能比对(OCR),只盖审批通过的文件
清华团队·解析基于深度学习的城市交通预测
深度解析:网络隔离与文件安全交换如何兼得?
文件夹重命名方法:提高效率减少错误,中英文批量翻译文件夹名称的实例解析
对 PyTorch BERT 模型进行微调,并将其部署到 Amazon SageMaker 上的 Amazon Elastic Inference
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
腾讯会议
活动推荐
运营活动
广告
关闭
领券