我有一个简单的可重复的Spark错误。the running tasks) Reason: Executor heartbeat timed out after 169068 ms at org.apache.spark.scheduler.DAGScheduler.org$apache$spark$scheduler$DAGScheduler$$failJobAndIndependentStages(DA
我有一个关于spark应用程序用法的问题。因此,我希望我们的Spark应用程序作为REST API Server运行,就像Spring Boot应用程序一样,因此它不会是批处理过程,相反,我们将加载应用程序,然后我们希望保持应用程序的活动状态(不调用spark.close()),并通过我们将定义的一些应用程序接口将应用程序用作实时查询引擎。我的目标是将其部署到Databricks。任何建议都是好<e