我有一个包含数千行的数据帧,我正在寻找的是分组和计数列,然后按输出排序:我做的事情如下所示:import sqlContext.implicits._
val df = objHive.sql("select * from db.tb")
val df_count=df.groupBy("id").<em
为什么下面的代码在返回语句中有编译错误, val res = spark.read.formatregisterTempTable("") }type mismatch; found : Unit required: Array[org.apache.spark.sql.Dataset[org.apache.spark.sql.Row]]
Scala版本2.1
在EMR中,我们使用Salesforce批量API调用从salesforce对象获取记录。对于其中一个对象(任务)数据帧,同时保存到拼板,得到以下错误。(rows.scala:174) at org.apache.spark.sql.catalyst.expressions.GenericRow.apply:169)
at org.apache.spark.sched