val spark = SparkSession.builder().appName("Spark SQL basic example").config("spark.master", "local").getOrCreate()
case class Something(id: Int, batchId: Option[String], div:overwrite").option("pa
我正在读取一个csv文件,并将其写入一个由col分区的拼花文件中。:00:00|this is test3|当我使用这个dataframe写入一个分区的parquet文件时,它得到了成功的写入,但是当我从那里读取并显示时间戳col作为空值时,尽管数据类型仍然是时间戳。> df.write.partitionBy("col1").mode("append").parquet("<some