我在一个使用YARN的Hadoop集群上使用PySpark (解释为)运行Jupyter Notebook服务器。我注意到,每个通过新笔记本启动的Spark应用程序,在Spark Web UI中都显示为一个名为"PySparkShell“的应用程序(对应于"spark.app.name”配置)。我的问题是,有时我有很多笔记本在Jupyter中运行,但它们都以相同的通用名称"PySparkShell“出现在Spark的Web
我有一个类似于许多其他发布的关于PySpark的问题,但这些解决方案似乎都不适用于我的问题,所以我发布了一个新的问题。 at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:47)
at org.apache.spark.sql.catal