Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >谷歌云作业提交培训卡住了

谷歌云作业提交培训卡住了
EN

Stack Overflow用户
提问于 2018-06-11 10:16:40
回答 2查看 438关注 0票数 0

您好,当我设置google cloud机器学习来训练神经网络时,突然我无法向google cloud提交作业。

没有错误,但是命令挂起了,没有做任何事情,而且我的实例正在运行.Here,命令如下:

代码语言:javascript
运行
AI代码解释
复制
gcloud ml-engine jobs submit training job9123 --runtime-version 1.0 --job-dir gs://dataset1_giorgaros2 --package-path trainmodule  --module-name trainmodule.nncloud --region europe-west1 --config cloudml-gpu.yaml -- --train-file gs://dataset1_giorgaros2/nnn.p

谢谢!

EN

回答 2

Stack Overflow用户

发布于 2018-08-10 21:56:09

ML引擎作业日志有助于获取有关失败作业执行的更多详细信息,在大多数情况下,日志文件包含失败的原因。

Finding the job logs on ML engine

如果您每次都在训练作业执行过程中尝试相同的命令,则可能会获得有关作业名称的错误,这是由于ML engine上的每个作业的名称必须是唯一的,因为ML engine作业的命名约定规则对此进行了描述。

ML Engine name convention

票数 1
EN

Stack Overflow用户

发布于 2018-06-11 20:33:34

尝试检查到google计算引擎的网络连接。

从run - https://console.cloud.google.com/检查日志

当然,请阅读文档:https://cloud.google.com/sdk/gcloud/reference/ml-engine/jobs/submit/training

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/50795413

复制
相关文章
批量提交作业
素素
2023/10/18
2100
oozie 重新提交作业
  在oozie的运行过程当中可能会出现错误,比如数据库连接不上,或者作业执行报错导致流程进入suspend或者killed状态,这个时候我们就要分析了,如果确实是数据或者是网络有问题,我们比如把问题解决了才可以重新运行作业。重新运行作业分两种情况,suspend状态和killed状态的,这两种状态是要通过不同的处理方式来处理的。   (1)suspend状态的我们可以用resume方式来在挂起的地方恢复作业,重新运行,或者是先杀掉它,让它进入killed状态,再进行重新运行。 public sta
岑玉海
2018/03/01
1.2K0
oozie java api提交作业
今晚试验用java的api来提交代码,由于代码是在我机器上写的,然后提交到我的虚拟机集群当中去,所以中间产生了一个错误。。要想在任意一台机器上向oozie提交作业的话,需要对hadoop的core-site.xml文件进行设置,复制到所有机器上,然后重启hadoop集群。 设置如下: <property> <name>hadoop.proxyuser.cenyuhai.hosts</name> <value>*</value> </property> <property>
岑玉海
2018/03/01
1.5K0
oozie java api提交作业
Spark部署模式与作业提交
需要注意的是:在集群环境下,application-jar 必须能被集群中所有节点都能访问,可以是 HDFS 上的路径;也可以是本地文件系统路径,如果是本地文件系统路径,则要求集群中每一个机器节点上的相同路径都存在该 Jar 包。
每天进步一点点
2022/07/27
8240
Spark部署模式与作业提交
Flink部署及作业提交(On YARN)
在上一篇 Flink部署及作业提交(On Flink Cluster) 文章中,我们介绍了如何编译部署Flink自身的资源分配和管理系统,并将作业提交到该系统上去运行。但通常来讲这种方式用得不多,因为在企业中,可能会使用不同的分布式计算框架,如Spark、Storm或MapReduce等。
端碗吹水
2020/09/30
3.8K0
Flink部署及作业提交(On YARN)
小程序云开发训练营结课作业已开启提交
伴随着参赛作品截止提交,大赛的配套学习活动 #小程序云开发训练营 也已开启「结课作业」的提交,检验和总结学习成果的时候来了~
腾讯云开发TCB
2021/06/10
5530
小程序云开发训练营结课作业已开启提交
Spark Operator 是如何提交 Spark 作业
本文将 Spark 作业称为 Spark Application 或者简称为 Spark App 或者 App。目前我们组的计算平台的 Spark 作业,是通过 Spark Operator 提交给 Kubernetes 集群的,这与 Spark 原生的直接通过 spark-submit 提交 Spark App 的方式不同,所以理解 Spark Operator 中提交 Spark App 的逻辑,对于用户来说是非常有必要的。本文将就其具体的提交逻辑,介绍一下。
runzhliu
2020/08/06
1.5K0
Spark Operator 是如何提交 Spark 作业
红队培训班作业 | 特征修改
3.修改Cobalt Strike中jQuery.profile文件里的部分敏感特征信息
Ms08067安全实验室
2021/09/28
5090
Flink部署及作业提交(On Flink Standalone)
部署Flink之前首先需要安装好JDK,可以选择8或11版本,我这里选择的是JDK11:
端碗吹水
2020/09/30
2.6K0
Flink部署及作业提交(On Flink Standalone)
Hadoop作业提交与执行源码分析
Hadoop作业提交与执行源码分析 1  概述 Job执行整体流程图 2  Job创建与提交过程 2.1         Configuration类 Configuration类定义了如下私有成员变量: /*第一个是boolean型变量quietmode,用于设置加载配置的模式。通过阅读源代码就可以清楚,这个quietmode如果为true,实际上默认就为true,加载配置的模式为快速模式,其实也就是在解析配置文件的过程中,不输出日志信息的模式*/ private boole
闵开慧
2018/03/30
1.7K0
Kettle与Hadoop(九)提交Spark作业
实验环境: Spark History Server: 172.16.1.126
用户1148526
2020/06/11
1.7K0
Kettle与Hadoop(九)提交Spark作业
hihoCoder 1051 补提交卡(贪心,枚举)
#1051 : 补提交卡 时间限制:2000ms 单点时限:1000ms 内存限制:256MB 描述 小Ho给自己定了一个宏伟的目标:连续100天每天坚持在hihoCoder上提交一个程序。100天过去了,小Ho查看自己的提交记录发现有N天因为贪玩忘记提交了。于是小Ho软磨硬泡、强忍着小Hi鄙视的眼神从小Hi那里要来M张"补提交卡"。每张"补提交卡"都可以补回一天的提交,将原本没有提交程序的一天变成有提交程序的一天。小Ho想知道通过利用这M张补提交卡,可以使自己的"最长连续提交天数"最多变成多少天。 输入
Angel_Kitty
2018/04/08
7600
Flink 提交作业运行的各种模式总结
关于 Flink 的 Application Mode 自己还比较陌生,像 -d 等参数自己也不熟悉,决定好好总结一下,基于 Flink-1.12.x
shengjk1
2021/02/01
2K0
Flink 提交作业运行的各种模式总结
SPSS作业-卡方检验-列联表[通俗易懂]
Pearson卡方值为6.122,对应的显著性P值为0.047<0.05。说明我们本次实验中男性与女性饮酒者啤酒偏好有差别的。
全栈程序员站长
2022/08/29
1.5K0
SPSS作业-卡方检验-列联表[通俗易懂]
Linux 执行 df -h 卡着不动,HANG 住了,怎么破?
这种问题,大概率是由于 mount 的目录被删除了,但是没有提前执行 umount 操作,因此报错!
Lucifer三思而后行
2021/09/22
6.2K0
Linux 执行 df -h 卡着不动,HANG 住了,怎么破?
Spark源码分析-作业提交(spark-submit)
前面提到,spark向yarn提交作业的client类是org.apache.spark.deploy.yarn.YarnClusterApplication
leslizhang
2022/03/30
1.1K0
云开发师资培训通知
为积极响应国家及教育部的政策方针,加强新工科专业建设与工程化教学思维认知,促进产学研深度融合,联盟联合腾讯公司于2020年9月19日举办云开发师资培训班,以云原生工程化应用平台云开发为基础,助力工程化应用型人才培养。现特邀各大高校计算机、软件工程等相关专业选派专业建设负责人、骨干教师参加本次培训班。 本次培训邀请来自高校教师及在线教育领域专家、腾讯相关技术部门的专家,从工程化教育模式、云计算发展趋势、产学合作教学设计等方面,带来行业领先的技术实践分享,协助一线教师强化产学合作课程建设能力与工程化教育认知。
腾讯高校合作
2020/09/16
1.2K0
云开发师资培训通知
为积极响应国家及教育部的政策方针,加强新工科专业建设与工程化教学思维认知,促进产学研深度融合,联盟联合腾讯公司于2020年9月19日举办云开发师资培训班,以云原生工程化应用平台云开发为基础,助力工程化应用型人才培养。现特邀各大高校计算机、软件工程等相关专业选派专业建设负责人、骨干教师参加本次培训班。 本次培训邀请来自高校教师及在线教育领域专家、腾讯相关技术部门的专家,从工程化教育模式、云计算发展趋势、产学合作教学设计等方面,带来行业领先的技术实践分享,协助一线教师强化产学合作课程建设能力与工程化教育认知。
腾讯云开发TCB
2020/09/11
8920
Pentaho Work with Big Data(二)—— Kettle提交Spark作业
实验目的: 配置Kettle向Spark集群提交作业。 实验环境: 4台CentOS release 6.4虚拟机,IP地址为 192.168.56.101 192.168.56.102 192.168.56.103 192.168.56.104 192.168.56.101是Spark集群的主,运行Master进程。 192.168.56.102、192.168.56.103是Spark的从,运行Worker进程。 192.168.56.104安装Pentaho的PDI,安装目录为/home/grid/data-integration。 Hadoop版本:2.7.2 Spark版本:1.5.0 PDI版本:6.0 Spark集群的安装配置参考 http://blog.csdn.net/wzy0623/article/details/50946766 配置步骤: 1. 在PDI主机上安装Spark客户端 将Spark的安装目录和相关系统环境设置文件拷贝到PDI所在主机 在192.168.56.101上执行以下命令 scp -r /home/grid/spark 192.168.56.104:/home/grid/ scp /etc/profile.d/spark.sh 192.168.56.104:/etc/profile.d/ 下面的配置均在192.168.56.104上执行 2. 编辑相关配置文件 (1)在/etc/hosts文件中加如下两行 192.168.56.101 master 192.168.56.104 kettle master和kettle为各自主机的hostname (2)编辑spark-env.sh文件,写如下两行,如图1所示 export HADOOP_CONF_DIR=/home/grid/data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54 export SPARK_HOME=/home/grid/spark
用户1148526
2022/05/07
5490
Pentaho Work with Big Data(二)—— Kettle提交Spark作业
提交Spark作业 | 科学设定spark-submit参数
关于spark-submit的执行过程,读Spark Core的源码能够获得一个大致的印象。
大数据真好玩
2020/11/03
1.8K0

相似问题

谷歌云平台提交培训作业,如何从培训代码中读取USER_ARGS?

229

提交ml引擎培训作业时云存储上传失败

11

向Google提交培训作业

14

无法提交培训作业gcloud ml

30

如何从GCP云构建管道提交GCP AI平台培训作业?

11
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档