我的类路径缺少可序列化和可克隆的类。我不确定如何解决这个问题。Symbol 'type scala.package.Serializable' is missing from the classpath.A full rebuild may help if 'SparkSession.class' was compiled against an incompatible version of scala.package{DataFrame, SparkSession} Symbol 'typ
和org.elasticsearch.hadoop.mr.LinkedMapWritable类的elasticsearch-hadoop jar文件,然后使用--jars参数运行我的工作,我可以看到文档出现在我的$1$$anonfun$apply$9.apply(PythonRDD.scala:611) at org.apache.spark.api.
下载了最新的Spark版本,因为
at scala.collection.AbstractMap.apply(Map.scala:59)
at org.apache.spark.api.python.PythonGatewayServer$.main(PythonGatewayServer.scala</e
我用spark maven在Intelligent IDEA中编写了一个示例。spark版本为2.0.0,hadoop版本为2.7.3,scala版本为2.11.8。系统环境和IDE环境是相同的版本。(StagePage.scala:44) at org.apache.spark.ui.jobs.StagesTab.(StagesTab.scala:34) at org.apache.spark.ui.SparkUI.(SparkUI.scal