腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(8514)
视频
沙龙
1
回答
Spark
Scala
dataframe
列到
嵌套
的
json
、
、
我正在尝试将
dataframe
转换为
嵌套
的
json
。 基本上,最终
的
输出是在字段"id“级别,其他字段
的
嵌套
json
格式。
Json
格式,使用字段rank作为键,desc和percent作为值。感谢您
的
帮助!---------------------------------------------------------------------------------------------+ |id |<
浏览 19
提问于2020-09-12
得票数 1
回答已采纳
1
回答
使用
spark
流解析Event Hub复杂数组类型消息
、
、
、
、
我们
嵌套
了
json
消息,但无法解析相同
的
消息: {"Name":"Rohit","Salary":"29292","EmpID":12,"Projects":{"ProjectID":"9191","ProjectName
浏览 19
提问于2021-04-06
得票数 1
回答已采纳
1
回答
在
Scala
中
嵌套
JSON
到
dataframe
、
我使用
Spark
/
Scala
来发出API请求,并将响应解析为
dataframe
。下面是用于测试目的
的
示例
JSON
响应: 但是,我尝试使用下面的来转换为
JSON
,但是
嵌套
的
字段没有被处理。是否有任何方法将
JSON
字符串转换为带有列
的
dataframe
?
浏览 16
提问于2022-08-22
得票数 0
4
回答
在
Spark
流SQL中解析
嵌套
JSON
字符串列
、
、
、
我遵循星火流指南,并能够使用sqlContext.read.
json
(rdd)获取
json
数据
的
sql上下文。问题是,
json
字段之一是我希望解析
的
JSON
字符串本身。是否有一种方法可以在
spark
中完成这一任务,或者使用ObjectMapper解析字符串并将其连接到其他数据中会更容易吗?为了澄清,
JSON
的
一个值是一个字符串,其中包含带有转义内部引号
的
JSON
数据。我正在寻找一种方法来告诉解析器将
浏览 12
提问于2016-01-04
得票数 4
回答已采纳
2
回答
使用行字段(即字符串数组)筛选
、
使用
Spark
1.5和
Scala
2.10.6 .where(df("tags").contains("private")) 由于数据类型不匹配导致线程“主”org.apache.
spark
.sql.AnalysisException:无法解析‘Contains(标记,私有)’中
的
异常:参数1
浏览 3
提问于2016-01-17
得票数 19
回答已采纳
1
回答
Spark
:分解一对
嵌套
列
、
、
Spark
2.1版{ "field2": "value2", "name": "b" { "id": "3",
浏览 11
提问于2017-02-22
得票数 1
回答已采纳
4
回答
如何读取
Spark
中
的
嵌套
集合
、
、
、
、
如何将该表读入RDD,更重要
的
是如何过滤、映射等
Spark
中
的
嵌套
集合?ps。我觉得在谈判桌上提供一些统计数据可能会有所帮助。主表中
的
列数约为600。行数~200m。
嵌套
集合中
的
“列”数~10。
嵌套
集合中
的
平均记录数~35。
浏览 191
提问于2015-05-03
得票数 19
回答已采纳
1
回答
如何用新列转义星火
dataFrame
中
的
字符串字段
、
如何通过
DataFrame
编写具有
JSON
格式
的
新列。我尝试了几种方法,但它将数据写入
JSON
-转义字符串字段。目前它
的
写作形式是{"test":{"id":1,"name":"name","problem_field": "{\"x\":100,\"y\":200}"}} 相反,我希望它成为{"test":{"<em
浏览 0
提问于2019-06-14
得票数 1
1
回答
Spark
HiveContext获取与配置单元客户端选择相同
的
格式
、
当配置单元表有像映射或数组这样
的
值时,如果你在配置单元客户端选择它,它们会显示为
JSON
,例如:{"a":1,"b":1}或[1,2,2]。在
Spark
中选择这些对象时,它们是
DataFrame
中
的
贴图/数组对象。当我使用
Spark
的
HiveContext时,我想使用与Hive客户端相同
的
格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
2
回答
Scala
火花:为
json
找到
的
多个源
、
、
在我
的
hadoop集群上执行
spark
2-submit时,当在hdfs中读取.jsons目录时,我不知道如何解决它。我尝试过显式导入org.apache.
spark
.sql.execution.datasources.
json
.JsonFileFormat,但导入SparkSession似乎是多余
的
,因此没有得到认可不过,我可以确认这两个类都是可用
的
。val
json
:org.apache.
spark
.sql.execution.datasources
浏览 0
提问于2020-07-05
得票数 0
回答已采纳
1
回答
对
json
和
dataframe
错误触发非
json
、
、
我有一个
json
类型
的
文件(不是真正
的
json
结构),但是我转换为
json
并通过
spark
(我们在
Spark
1.6.0中)读取,我还不能使用
spark
2中
的
多行功能。它显示结果,但同时出错。我有这样
的
文件。(rdd).show() 它显示
的
结果,但我得到以下错误也,请帮助这一点。:98) at org.apache.
spark
.sql.
DataFrame
.w
浏览 2
提问于2018-08-31
得票数 1
2
回答
Scala
-如何将包含一个字符串列
的
数据type转换为具有严格类型列
的
DF?
、
、
我目前正面临一个我无法解决
的
问题。我用
的
是星火1.6。 {"eventid":"3bc1c5d2-c10f-48d6我没能把它转换成正确
的
类型。 希望
的
架构在df
浏览 3
提问于2016-11-08
得票数 4
回答已采纳
1
回答
在
Spark
中展平行
、
、
、
我正在使用
scala
为
spark
做一些测试。我们通常读取需要操作
的
json
文件,如下例所示:{"a":1,"b":[2,3]}如何将其转换为以下格式
浏览 1
提问于2015-10-02
得票数 49
回答已采纳
1
回答
如何使用StopWordsRemover来转换
json
对象
的
数据?
、
、
我正在使用MLlib和
Spark
1.5.1。输入类型必须是ArrayType( StringType ),但获得StringType。我
的
密码怎么了?df = sqlContext.read().
json
("file:///home/ec2-user/
spark
_apps/article.
json
"); articl
浏览 2
提问于2015-11-07
得票数 1
回答已采纳
3
回答
带有备选方案
的
重载方法foreachBatch
、
错误:(34,25)重载方法foreachBatch与备选方案:(函数:不能应用于(org.apache.
spark
.sql.
DataFrame
,(
scala
.Long) => org.apache.
spark
.sql.
DataFrame
) askDF.writeStream.foreachBatch (askDF:
DataFrame
,batchId: Long) => package fr.fdj import org.apache.
浏览 5
提问于2020-07-28
得票数 6
3
回答
如何从结构元素
的
嵌套
数组创建SparkSpark元素?
、
、
、
我已经将一个
JSON
文件读入
Spark
。该文件
的
结构如下:root | |-- next: struct我理想情况下需要一个包含"cde“、"cdeInternal”、“
DataFrame
”列
的
消息……如下所示|-- cde: struct (nullable = true)...
scal
浏览 2
提问于2015-11-23
得票数 10
回答已采纳
1
回答
将StringType列添加到现有的
DataFrame
中,然后应用默认值
、
、
、
Scala
2.10在这里使用
Spark
1.6.2。我有一个与类似的(但不是相同
的
)问题,然而,被接受
的
答案不是,它假定了关于火花
的
某种“预先知识”;因此我无法复制它或理解它。$1.apply(
DataFrame
.
scala
:152)
浏览 4
提问于2016-10-10
得票数 7
回答已采纳
1
回答
DataFrame
na()填充方法和不明确引用
的
问题
、
我使用
的
是
Spark
1.3.1,其中连接两个数据帧会重复连接
的
列。我在外部连接两个数据帧,希望将结果数据帧发送到na().fill()方法,以便根据列
的
数据类型将空值转换为已知值。我看到有一个
dataFrame
.withColumnRenamed方法,但我只能重命名一列。我有涉及多个列
的
连接。我是否只需要确保存在一组惟一
的
列名,而不管我应用na().fill()方法
的
dataFrame
中
的
表别名是什么?给定: <e
浏览 4
提问于2016-02-28
得票数 3
3
回答
如何使用
spark
scala
解析Hive/Hbase列中可用
的
嵌套
JSON
、
、
如何使用
spark
scala
解析和扁平化Hive/Hbase列中
的
嵌套
JSON
?示例: "fruit": "Apple", "LineNumber": 2,
浏览 1
提问于2019-04-17
得票数 0
点击加载更多
相关
资讯
遇见YI算法之初识Pyspark(二)
教程:Apache Spark SQL入门及实践指南!
使用Spark将本地文件读取并封装为DataFrame的完整指南
Spark之SparkSQL
Spark SQL,DataFrames 以及 Datasets 编程指南
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券