我正在尝试通过Spark在BigQuery中存储日期数据类型列 cast(from_unixtime(eventtime*60) as date) as createdDate 我也尝试过to_date,如下所示,但没有成功 to_date(from_unixtime(eventtime*60)) as createdDate 现在我正在尝试使用Spark-BigQuery连接器保存这个数据集,它给我的错误是字段但是当我尝试打印spark中的模式时,正确地说列数据类型是Date。
version (Spark 1.x vs.=1g \ --conf spark.task.maxFailures=8 `# Increase max task failurescorresponding jobs from the Spark UI` \
--conf spark.logConf=true `# Log Spark Configuration in driverlog for troublesh