将过滤后的数据写入文件时遇到问题。在本地文件系统中创建了大约27个文件,但没有输出。下面是使用的代码:val in_df=spark.read.csv("file:///home/Desktop/Project/inputdata.csv").selectExpr("_c0 as Id",“val as name","_c2 as dep
我有ArrayByte格式的数据,我想将其转换为Spark RDD或DataFrame,这样我就可以将数据以文件的形式直接写入Google存储桶中。我无法将ArrayByte数据直接写入Google bucket。所以寻找这个转换。我的以下代码能够将数据写入本地文件系统,但不能写入Google存储桶
val encrypted