腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
6
回答
如何覆盖每个驱动程序
的
log4j.properties
?
、
我正在尝试覆盖
Spark
的
默认
log4j.properties
,但一直没有任何成功。我尝试在
spark
-submit中添加以下内容: --conf "
spark
.executor.extraJavaOptions=Dlog4j.configuration=/tmp/
log4j.properties
我也尝试在
spark
-submit中使用--files选项,但似乎也不起作用。有没有人设置了日志记录,所以每个驱动程序都有一个
log4j.
浏览 1
提问于2015-03-04
得票数 22
6
回答
spark
-submit,如何指定
log4j.properties
、
、
在
spark
-submit中,如何指定
log4j.properties
?DRIVER_JAVA_OPTIONS="-Dlog4j.configuration=file://${current_dir}/
log4j.properties
"
spark
-su
浏览 0
提问于2017-02-14
得票数 19
1
回答
从s3传递自定义
log4j.properties
文件
、
、
、
如果我将日志文件添加到集群中,并在我
的
spark
提交中引用它,则配置将生效。但是,如果我尝试使用--files s3://...访问该文件,则它不起作用。=file:
log4j.properties
\--master yarn \ --files s3:
浏览 25
提问于2020-12-08
得票数 0
2
回答
使用
spark
自定义日志
、
我正在尝试使用
spark
-submit配置一个自定义日志,这是我
的
配置:-DlogsPath=/var/opt/log\
spark
.driver.extraJavaOptions -> -DlogsPath=/var/opt/log -DlogsFile=
spark
-submit-dri
浏览 9
提问于2015-04-09
得票数 6
1
回答
Apache :驱动程序
的
垃圾收集日志
、
、
、
为了进一步调试,我启用了G1GC模式,还启用了使用
spark
.driver.extraJavaOptions=-Dlog4j.configuration=
log4j.properties
-XX:+PrintFlagsFinal根据
的
说法,这些设置似乎只发生在工作节点上(在本例中我可以看到,而且工作人员在
spark
.executor.extraJavaOptions下使用了相同
的
信任之后,在stdout中也有GC日志)。是否有从驱动程序中启用/获取GC日志
的
方法?在
Sp
浏览 0
提问于2017-07-23
得票数 3
1
回答
如何将
Spark
日志标准重定向到控制台
、
、
当我
的
星火应用程序失败时,它会将一条非常通用
的
消息记录到控制台。为了查看显示真正错误
的
详细消息,我必须转到
Spark
,并查看我
的
执行器
的
stdout日志。有人知道我怎样才能在控制台中显示更多
的
细节吗?HH:mm:ss} %p %c{1}: %m%n log4j.logger.org.
spark
-project.jetty=WARN lo
浏览 1
提问于2017-10-24
得票数 3
1
回答
自定义日志配置被
spark
默认日志配置覆盖
、
、
、
、
我正在尝试在边缘节点上
的
自定义位置写入
spark
日志。但是我
的
log4j.properties
文件被默认
的
集群属性文件覆盖-客户端/conf/
log4j.properties
我使用以下版本:
Spark
version 2.1.1.2.6.2.25-1 Scala version 2.11.8
spark
-submit \ -y
浏览 0
提问于2018-04-08
得票数 0
2
回答
Dataproc忽略
Spark
配置
、
、
我在dataproc集群中运行下面的
spark
提交命令,但我注意到很少有
spark
配置被忽略。我想知道他们被忽视
的
原因是什么?-Dlog4j.configuration=
log4j.properties
",
spark
.executor.extraJavaOptions="-Dconfig.file=application_dev.json-Dlog4j.configuration=
log4j.properties
,
spark
.executor.in
浏览 44
提问于2020-12-10
得票数 1
回答已采纳
5
回答
如何使用log4j登录到运行在纱线上
的
星火应用程序中
的
本地文件系统?
、
、
、
我正在构建一个Apache流应用程序,当它在
Spark
上运行时,我不能让它登录到本地文件系统上
的
一个文件。如何才能做到这一点?log4j.appender.file.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L - %m%n
spark
-submit --class myModule.myClass --master local[2] --deploy-mode clie
浏览 5
提问于2015-02-11
得票数 34
回答已采纳
1
回答
在集群模式下运行
spark
作业时,Python日志记录会在运行时设置日志路径
、
、
、
、
我
的
日志设置如下所示: logging.json包含日志配置 File Handler: filename: "%dynamic_log%/sample.log" 我在运行时构造动态日志路径,并使用dictConfig将%dynamic_log%替换为我想要登录并加载到记录器中
的
实际路径。这就是在集群模式下运行pyspark作业时
的
问题。驱动程序在其中一个工作节点容器中执行
spark
作业。my/dynamic/path/sample.log' 解决方法:
浏览 19
提问于2021-08-08
得票数 0
1
回答
Spark
:
spark
-submit不接受自定义
log4j.properties
、
、
这可能是的副本,但它与
Spark
1.3/4相关。我正在使用1.5.2。 我正在把
log4j.properties
打包在我
的
胖罐子里。它在两种情况下表现出不同
的
行为。在机器2上,可以在以下位置获得默认
log4j.properties
:/etc/
spark
/conf/
log4j.properties
。在machine 2上,fat-jar中
的
打包
log4j.properties
不会加载,
浏览 0
提问于2016-02-03
得票数 2
3
回答
AWS EMR上
的
自定义
log4j.properties
、
、
我无法覆盖和使用Amazon EMR上
的
自定义
log4j.properties
。我在电子病历(纱线)上运行火花,并尝试了下面所有的组合在火花提交尝试和使用自定义
的
log4j。--driver-java-options "-Dlog4j.configuration=hdfs://host:port/user/hadoop/
log4j.properties
" --conf "
spark
.driver.extraJavaOptio
浏览 2
提问于2017-02-25
得票数 8
1
回答
Oozie
spark
动作Log4j配置
、
、
、
、
下面是我
的
workflow.xml中
的
spark
-opts标签 <
spark
-opts>--driver-memory 4G --executor-memory 4G --num-executors 6--executor-cores 3 --files /tmp/logs/appName/
log4j.properties
--conf
spark
.driver.extraJavaOptions='='-Dlog4j
浏览 2
提问于2017-06-07
得票数 2
1
回答
无法在
spark
中使用jar中
的
log4j.properties
、
、
、
我
的
log4j.properties
与超级/胖应用程序jar打包在一起,下面是我
的
spark
submit命令--conf
spark
.driver.extraJavaOptions=-Dlog4j.configuration=classpath:
log4j.properties
--conf
spark
.executor.extr
浏览 3
提问于2020-11-18
得票数 2
1
回答
带参数
的
Scala测试JAR文件
、
、
我正在使用
spark
2.0,sbt 0.13和Scala Test 3.0,我想知道我是否可以像处理主JAR文件一样将参数从命令传递到测试JAR文件。例如,我
的
测试套件中
的
spark
-submit my-test-file.jar args1 args2和测试用例可以获得args1和args2
的
值。
浏览 1
提问于2016-12-16
得票数 0
1
回答
如何让AWS EMR集群上
的
Spark
driver和executor自定义
log4j.properties
生效?
、
、
、
我有一个AWS CLI集群创建命令,我正在尝试修改该命令,以便使我
的
驱动程序和执行器能够使用自定义
的
log4j.properties
文件。我尝试了许多不同
的
排列和变体,但尚未与我在AWS EMR集群上运行
的
Spark
作业一起工作。我使用AWS CLI
的
“create cluster”命令,中间步骤是下载我
的
spark
jar,将其解压缩以获得与该.jar打包
的
log4j.properties
。然后,
浏览 38
提问于2021-04-12
得票数 2
回答已采纳
1
回答
Dataproc:在shell中更新日志级别
、
、
、
我使用木星终端访问Dataproc集群
的
驱动程序。这是我通往集群
的
网关,我没有为驱动程序机器启用直接SSH。当我启动
spark
时,我会在整个会话中不断地获取这些信息、调试、上下文清理消息,并在某种程度上干扰了我
的
编码工作。有办法把这些关掉吗?scala> 22/10/11 15:47:31 INFO org.apache.
spark
.scheduler.cluster.YarnSchedulerBackend$YarnDriverEndpoint: Registered exec
浏览 11
提问于2022-10-11
得票数 2
1
回答
从
Spark
submit命令读取App.conf和
Log4j.properties
、
、
、
、
我正在尝试传递jar中
的
application.conf和
Log4j.properties
,但我想从外部传递它们。我通过
spark
提交命令进行了尝试,如下所示: /opt/apps/
spark
/bin/
spark
-submit --files /opt/apps/
spark
/code/src/main/resources/application.co
浏览 28
提问于2021-10-26
得票数 0
1
回答
火花放电伐木
、
在这个问题中发现
的
中
的
关于从pyspark登录
的
信息并不适用于我:日志记录没有发生。根据文档,哪一项是正确
的
:
log4j.properties
文件在conf目录中。开始
的
一种方法是复制位于那里
的
现有lo
浏览 2
提问于2015-03-07
得票数 0
回答已采纳
1
回答
如何在
Spark
中为执行器和驱动程序使用自定义log4j属性
、
、
、
、
我正在尝试在
Spark
中为Executor和Driver设置自定义
的
log4j属性。我希望在不将log4j文件上传到执行器和驱动程序节点
的
情况下执行此操作。我在应用程序jar中有log4j属性文件。
spark
-submit --deploy-mode cluster --master yarn --conf
spark
.driver.userClassPathFirst=true --conf
spark
.executor.userClassPathFirst=true --conf <
浏览 0
提问于2016-11-03
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark快速入门-2-Spark的编程模型
Windows和PC机上搭建Spark+Python开发环境的详细步骤
大数据技术,Spark详细介绍,Spark和Hadoop的区别
如何管理Spark的分区
关于Spark的RPC机制
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券