我使用的是Mongo连接器--文档中的所有示例()都很好,但是如果我在一个有子文档失败的文档中测试查询,显然SQL还没有准备好进行此查询: at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala$ofRef.foreach(ArrayOps.<
我有一个通过scalapb从.proto文件生成的case类,它有几个bcl.DateTime类型的字段。(TraversableLike.scala:234) at org.apache.spark.sql.catalyst.ScalaReflection(TraversableLike.scala:234)
at scala<
如何处理在使用spark加载文件时,数据中是否存在我的分隔符。我的数据如下:Suresh|32|BSC如何将此列转换为如下所示的3列。> val rdd2=rdd.map(x=>x.split("\""))
rdd2: org.apache.spark.rdd.RDD[Array[String]] = MapPartitionsRDD[2] at map</em