我想将spark应用程序的开始时间存储到表中。但是如果我在带有spark.sql的insert语句中使用它,NULL值将被插入到目标表中。spark.sql(" select from_unixtime(CAST(${i}/1000 AS bigint),'YYYY-MM-DD HH:MM:SS.SSS')
from temp li
我有一系列的地图。每个映射包含作为键的列名和作为值的列值。一张地图描述了一行。我不知道地图上会有多少个条目。所以我不能在代码中创建一个固定长度的元组。我想把序列转换成数据帧。from this block}.toDF(columns:_*)
但它给出了以下例外:
org.apache.spark.sql.types.ArrayTy