Spark 2.1版
我正在将一个文件读入Spark dataframe
,格式如下:
{
"field1": "value1",
"field2": "value2",
"elements": [{
"id": "1",
"name": "a"
},
{
"id": "2",
"name": "b"
},
{
"id": "3",
"name": "c"
}]
}
它包含嵌套元素的array
,现在我想对elements
数组执行explode
操作,以获得扁平的json结构。我使用了下面的代码:
var dfExploded = df
.withColumn("id",
explode(df.col("elements.id")))
.withColumn("name",
explode(df.col("elements.name")));
它似乎返回笛卡尔乘积(例如,我在结果中得到9个元素,而我只想要3个)。有没有什么方法可以指定一对嵌套列到explode
函数?
发布于 2017-02-22 16:39:05
如果我理解正确的话,你可以试试这个:
val exploded = df.withColumn("elements", explode($"elements"))
exploded.show()
>> +--------+------+------+
>> |elements|field1|field2|
>> +--------+------+------+
>> | [1,a]|value1|value2|
>> | [2,b]|value1|value2|
>> | [3,c]|value1|value2|
>> +--------+------+------+
第一步基本上将数组转换为单独的记录。您需要对数组本身(元素)执行此操作,而不是对数组内部的元素执行此操作
接下来,您可以执行以下操作
val flattened = exploded.select("elements.*", "field1", "field2")
flattened.show()
>> +---+----+------+------+
>> | id|name|field1|field2|
>> +---+----+------+------+
>> | 1| a|value1|value2|
>> | 2| b|value1|value2|
>> | 3| c|value1|value2|
>> +---+----+------+------+
展平元素的步骤
https://stackoverflow.com/questions/42385832
复制相似问题