我必须连接两个数据帧,这非常类似于这里给出的任务Joining two DataFrames in Spark SQL and selecting columns of only one
但是,我只想从df2
中选择第二列。在我的任务中,我将在一个数据帧列表的reduce
函数中使用两个数据帧的连接函数。在这个数据帧列表中,列名将不同。但是,在每种情况下,我都希望保留df2
的第二列。
我在任何地方都找不到如何根据数据帧的编号索引选择数据帧的列。如有任何帮助,我们不胜感激!
编辑:
回答
我想出了解决方案。以下是一种方法:
def joinDFs(df1: DataFrame, df2: DataFrame): DataFrame = {
val df2cols = df2.columns
val desiredDf2Col = df2cols(1) // the second column
val df3 = df1.as("df1").join(df2.as("df2"), $"df1.time" === $"df2.time")
.select($"df1.*",$"df2.$desiredDf2Col")
df3
}
然后,我可以在数据帧列表上的reduce
操作中应用此函数。
var listOfDFs: List[DataFrame] = List()
// Populate listOfDFs as you want here
val joinedDF = listOfDFs.reduceLeft((x, y) => {joinDFs(x, y)})
发布于 2017-05-09 01:36:07
要选择数据帧中的第二列,您可以简单地执行以下操作:
val df3 = df2.select(df2.columns(1))
这将首先找到第二个列名,然后选择它。
发布于 2017-05-09 02:01:55
如果要在reduce
函数中定义的join
和select
方法类似于Joining two DataFrames in Spark SQL and selecting columns of only one
然后,您应该执行以下操作:
import org.apache.spark.sql.functions._
d1.as("d1").join(d2.as("d2"), $"d1.id" === $"d2.id").select(Seq(1) map d2.columns map col: _*)
您必须记住,第二列的名称(即 Seq(1)
)不应与任何数据帧列名相同。
您也可以选择多个列,但请记住上面的粗体注释
import org.apache.spark.sql.functions._
d1.as("d1").join(d2.as("d2"), $"d1.id" === $"d2.id").select(Seq(1, 2) map d2.columns map col: _*)
https://stackoverflow.com/questions/43859232
复制相似问题