我使用3个虚拟机作为主机,使用Ambari设置了一个集群(YARN)。
在哪里可以找到HADOOP_CONF_DIR的值?
# Run on a YARN cluster
export HADOOP_CONF_DIR=XXX
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master yarn-cluster \ # can also be `yarn-client` for client mode
--executor-memory 20G \
--num-executors 50 \
在过去的几天里,我在Kubernetes上体验了Spark (2.3.0)。
我已经在linux和windows机器上测试了示例SparkPi,发现linux spark-submit运行正常,并且给出了正确的结果(剧透: Pi大约是3.1402157010785055)
在windows上,spark因类路径问题而失败(Could not find or load main class org.apache.spark.examples.SparkPi)
我注意到当从linux运行spark-submit时,类路径是这样的:
-cp ':/opt/spark/jars/*:/var/
我正在尝试按照这个文档使用齐柏林飞艇配置livy:
但是,当我运行时:
%livy.spark
sc.version
我得到了以下错误:
java.lang.RuntimeException: No result can be extracted from 'java.lang.NoSuchMethodException: org.apache.spark.ui.SparkUI.appUIAddress()', something must be wrong
我使用的是Zeppelin 0.7.3、Spark 2.2.1和Livy 0.4.0。Spark在纱线上运行(hadoo
当我想要运行SparkPi示例时,我会得到这个错误。
beyhan@beyhan:~/spark-1.2.0-bin-hadoop2.4$ /home/beyhan/spark-1.2.0-bin-hadoop2.4/bin/spark-submit --master ego-client --class org.apache.spark.examples.SparkPi /home/beyhan/spark-1.2.0-bin-hadoop2.4/lib/spark-examples-1.jar
Spark assembly has been built with Hi
我试图连接到HDFS并添加使用Azure Blob作为存储的文件。在Apache中,我使用hdfs-site.xml和core-site.xml文件配置了HDFS连接。
Apache中的PutHDFS组件引发以下错误。
10:01:39 UTC ERROR
PutHDFS. Failed to properly initialize Processor. If still scheduled to run, NiFi will attempt to initialize and run the Processor again after the 'Administrative Yiel