腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Scala
:
使用
嵌套
json
结构
转换
和
替换
Spark
DataFrame
的
值
、
、
、
、
我有一个
嵌套
的
json
文件,我将其读取为
Spark
DataFrame
,并且希望在
使用
自己
的
转换
时
替换
某些
值
。E": "e" } """) df.printSchema() 假设对上述
Spark
DataFrame
中
的
某些
浏览 16
提问于2020-08-12
得票数 0
1
回答
在
Scala
中
嵌套
JSON
到
dataframe
、
我
使用
Spark
/
Scala
来发出API请求,并将响应解析为
dataframe
。下面是用于测试目的
的
示例
JSON
响应: 但是,我尝试
使用
下面的来
转换
为
JSON
,但是
嵌套
的
字段没有被处理。是否有任何方法将
JSON
字符串
转换
为带有列
的
dataframe
?
浏览 16
提问于2022-08-22
得票数 0
1
回答
创建具有
嵌套
结构
的
DataFrame
并从输入表填充数据
、
、
我正在
使用
Scala
中
的
Spark
,希望将现有的数据集(
dataframe
)
转换
为包含
嵌套
结构
的
新表。columnA columnB columnC columnD columnE 示例输出: columnA columnB columnC columnF:{columnD,columnE} (创建一个同时包含D
和
E作为
嵌套
结构
的
新列)
转换
co
浏览 25
提问于2021-08-12
得票数 0
8
回答
如何在
Spark
2
Scala
中将Row
转换
为
json
、
、
、
有没有一种简单
的
方法可以将给定
的
Row对象
转换
为
json
? 找到了关于将整个数据帧
转换
为
json
输出
的
内容:
Spark
Row to
JSON
但我只想把one Row
转换
成
json
。下面是我想要做
的
伪代码。 更准确地说,我将
json
读取为
Dataframe
中
的
输入。我正在生成一个新
的
输出,它主要基于列,但<e
浏览 150
提问于2017-01-12
得票数 10
回答已采纳
1
回答
spark
_expect_jobj_class中
的
CSV文件创建错误
、
、
sc <-
spark
_connect(master = "local", config = conf, version = '2.2.0')sdf_schema_viewer(sample_tbl
浏览 0
提问于2018-09-10
得票数 1
4
回答
在
Spark
流SQL中解析
嵌套
JSON
字符串列
、
、
、
我遵循星火流指南,并能够
使用
sqlContext.read.
json
(rdd)获取
json
数据
的
sql上下文。问题是,
json
字段之一是我希望解析
的
JSON
字符串本身。是否有一种方法可以在
spark
中完成这一任务,或者
使用
ObjectMapper解析字符串并将其连接到其他数据中会更容易吗?为了澄清,
JSON
的
一个
值
是一个字符串,其中包含带有转义内部引号
的
J
浏览 12
提问于2016-01-04
得票数 4
回答已采纳
1
回答
使用
spark
流解析Event Hub复杂数组类型消息
、
、
、
、
我们
嵌套
了
json
消息,但无法解析相同
的
消息: {"Name":"Rohit","Salary":"29292","EmpID":12,"Projects":{"ProjectID":"9191","ProjectName":"abc","Duration":"79"},{"ProjectID&
浏览 19
提问于2021-04-06
得票数 1
回答已采纳
4
回答
如何读取
Spark
中
的
嵌套
集合
、
、
、
、
我有一张镶木镶木桌上有一根柱子在
Spark
文档中找不到任何与此相关
的
引用。提前感谢您提供
的
任何信息! ps。我觉得在谈判桌上提供一些统计数据可能会有所帮助。主表中
的
列数约为600。行数~200m。
嵌套
集合
浏览 191
提问于2015-05-03
得票数 19
回答已采纳
2
回答
重载方法
值
json
与备选方案:(jsonRDD: org.apache.
spark
.rdd.RDD[String])在IntelliJ中
使用
火花
、
、
、
、
我正在尝试将
JSON
字符串jsonStr
转换
为
Scala
中
的
。为此目的
使用
InteliJ。
spark
.sparkContextvar df =
spark
.read.
json
(Seq(jsonStr).toDS)在
使用
错误:(243,29)重载方法
值
json
:( org.apache.
spark</e
浏览 3
提问于2020-05-22
得票数 0
回答已采纳
1
回答
读取
json
列
和
直接数据
值
列
下面的语句满足了我
的
需要,但它只能在
spark
-shell中运行,而不能在
scala
程序中运行。
spark
.read.
json
(
dataframe
.select("col_name").as[String]).schema输出。
浏览 14
提问于2020-03-12
得票数 0
3
回答
为什么
Spark
会将字符串" null“
转换
为对象null(浮点/双类型)?
、
、
、
我有一个包含float
和
double
值
的
dataframe
。
scala
> val df = List((Float.NaN, Double.NaN), (1f, 0d)).toDF("x", "y") df: org.apache.
spark
.sql.
DataFrame
值
替换
为null
值
时,我将null作为字符串提供给fill操作中
的
Map。null|n
浏览 2
提问于2017-05-12
得票数 3
回答已采纳
1
回答
Spark
HiveContext获取与配置单元客户端选择相同
的
格式
、
当配置单元表有像映射或数组这样
的
值
时,如果你在配置单元客户端选择它,它们会显示为
JSON
,例如:{"a":1,"b":1}或[1,2,2]。在
Spark
中选择这些对象时,它们是
DataFrame
中
的
贴图/数组对象。当我
使用
Spark
的
HiveContext时,我想
使用
与Hive客户端相同
的
格式。 我该怎么做呢?
浏览 1
提问于2018-07-20
得票数 0
1
回答
在本地
使用
spark
/
scala
查询数据时,如何更改列中值
的
输出?
、
、
、
、
我
使用
spark
/
scala
本地将
json
文件
转换
为
dataframe
。 我当前
的
dataframe
有一个列‘男性’
和
‘女性’
值
,如下所示。我想将
dataframe
中
的
‘男性’更改为'M',以及
使用
Spark
-sql<code>E 215</code>将‘where’更改为'
浏览 5
提问于2021-07-19
得票数 1
1
回答
将
Dataframe
激发到StringType
、
、
、
在PySpark中,如何将
Dataframe
转换
为普通字符串?我将PySpark与Kafka一起
使用
,而不是硬编码代理名称,而是在PySpark中参数化了Kafka broker名称。
Json
文件保存了代理详细信息,
Spark
读取这个
Json
输入并将
值
赋值给变量。这些变量为带有字符串
的
Dataframe
类型。当我将
dataframe
传递给Pyspark连接细节以
替换
值
时,
浏览 0
提问于2021-03-05
得票数 0
1
回答
火花:从
嵌套
DataFrame
打印元素
、
、
我试图从包含
嵌套
值
的
DataFrame
中打印特定元素:
scala
>result它包括:
s
浏览 4
提问于2015-12-02
得票数 0
回答已采纳
1
回答
DataFrame
na()填充方法
和
不明确引用
的
问题
、
我
使用
的
是
Spark
1.3.1,其中连接两个数据帧会重复连接
的
列。我在外部连接两个数据帧,希望将结果数据帧发送到na().fill()方法,以便根据列
的
数据类型将空
值
转换
为已知
值
。我是否只需要确保存在一组惟一
的
列名,而不管我应用na().fill()方法
的
dataFrame
中
的
表别名是什么?给定:
scala
> val df1 = sqlContext.j
浏览 4
提问于2016-02-28
得票数 3
1
回答
对
json
和
dataframe
错误触发非
json
、
、
我有一个
json
类型
的
文件(不是真正
的
json
结构
),但是我
转换
为
json
并通过
spark
(我们在
Spark
1.6.0中)读取,我还不能
使用
spark
2中
的
多行功能。它显示结果,但同时出错。我有这样
的
文件。(rdd).show() 它显示
的
结果,但我得到以下错误也,请帮助这一点。:98) at org.apache.
spark</e
浏览 2
提问于2018-08-31
得票数 1
1
回答
尝试
使用
Spark
1.6 (WrappedArray)从
嵌套
JSON
中收集A
值
、
、
、
我试图在
Dataframe
中
转换
json
文件,但我被困在基于数组
的
字段中。我
使用
的
是
Spark
1.6
和
Java。当我读取
嵌套
的
Json
并
转换
为
Dataframe
时,我可以读取一些字段,但当我尝试输入特定路径时,会显示错误。
DataFrame
df =
spark
.read().
json
(sc.wholeTex
浏览 29
提问于2019-09-11
得票数 0
1
回答
在运行时更改参数类型
的
Scala
案例类
Scala
问题:
JSON
数据被提取并存储到case类中,需要将时间字符串数据
转换
为用于
Spark
dataframe
的
sql时间戳
和
用于Salat DAO/Mongo存储
的
Java/Joda日期。而且两者都不支持对方
的
格式。目前,我们
使用
两个case类进行相同
的
操作: case class A(a:int, b:string, time:java.sql.timestamp)
浏览 0
提问于2016-04-08
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
教程:Apache Spark SQL入门及实践指南!
遇见YI算法之初识Pyspark(二)
Spark之SparkSQL
Spark SQL DataFrame与RDD交互
使用Spark将本地文件读取并封装为DataFrame的完整指南
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券