我正在尝试设置一个自动作业来构建csv文件(通过从多个MySQL数据库中提取聚合),并按每日计划发送一封电子邮件。如果脚本正常通过RStudio运行,则整个脚本将作为本地作业工作(通过RStudio作业v1.2.1335)。但是,当作业通过taskscheduleR插件自动执行时,它会返回以下错误: Error in curl::curl_fetch_memory(url, han
通常情况下,如果我将Scala用于Spark作业,我将编译一个jarfile并使用gcloud dataproc jobs submit spark提交它,但有时对于非常轻量级的作业,我可能在笔记本中使用未编译的对于其中的一些轻量级用例,我可以等效地使用PySpark并与gcloud dataproc jobs submit pyspark一起提交,但有时我需要更容易地访问Scala/Java库,例如在映射函数中直接创建有什么简单的方法可以直接从使用Dataproc的<