腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
读取
多个
json
文件
时出错
Pyspark
、
我正在尝试将大约300个单独的
json
文件
读取
到
pyspark
中。我可以只读一个,但是一旦我
使用
了通配符,它就会出错:我已经尝试应用了以下代码:from
pyspark
import SparkContext, SparkConf sc = S
浏览 1
提问于2019-07-25
得票数 0
1
回答
运行spark.read.
json
时在
json
中找到重复列,即使没有重复列
、
、
、
在
PySpark
和Synapse数据流中,我遇到了非常奇怪的错误。 "abfss://<Container>]@<DIR>.dfs.core.windows.n
浏览 3
提问于2021-11-25
得票数 0
1
回答
使用
pyspark
读取
Json
文件
、
、
、
我正在尝试从databricks中的dbfs
读取
多个
json
文件
。raw_df = spark.read.
json
('/mnt/testdatabricks/metrics-raw/',recursiveFileLookup=True) 这只返回35个
文件
的数据,而大约有1600个
文件
。我尝试
使用
pandas
读取
一些
文件
(除了那些35个),但它返回了数据。 但是,当我尝试<e
浏览 79
提问于2021-11-03
得票数 0
1
回答
如何在
PySpark
中
读取
DBF
文件
、
、
、
、
我需要在.DBF中
读取
和处理
PySpark
文件
,但是我没有得到任何库,我怎么能像
读取
CSV、
JSON
、Parquet或其他
文件
那样
读取
它。from
浏览 9
提问于2022-01-29
得票数 0
5
回答
如何在一个字符串中
读取
整个
文件
、
、
我想
读取
pyspark
.lf格式的
json
或xml
文件
我的
文件
被分成多行输入" employees": { "firstName如何
使用
pyspark
在一行中获得完整的
文件
?
浏览 2
提问于2015-05-26
得票数 10
2
回答
星火read.
json
抛出java.io.IOException:换行符前的字节过多
、
、
、
、
在
读取
一个大的6gb单行
json
文件
时,我得到了以下错误:spark不
使用
新行
读取
json
文件
,因此整个6 gb的
json</em
浏览 12
提问于2016-03-14
得票数 4
回答已采纳
0
回答
用于在
PySpark
中定义
JSON
Schema结构的配置
文件
、
、
、
我已经创建了一个
PySpark
应用程序,它通过定义的模式
读取
数据帧中的
JSON
文件
。StructField("timestamp", LongType(), True), df= sqlContext.read.
json
(file, schema) 我需要一种方法来找到如何在一种配置或ini
文件
等中定义此模式,并在主
PySpark
应用程序中
读取
它。这将帮助我在将来有任何需
浏览 3
提问于2016-07-09
得票数 9
2
回答
PySpark
:如何加快sqlContext.read.
json
的速度?
、
、
我正在
使用
下面的
pyspark
代码从s3桶中
读取
数千个
JSON
文件
sqlContext = SQLContext(sc)这需要大量时间来
读取
和解析
JSON
文件
(~16分钟)。
浏览 1
提问于2018-06-20
得票数 2
1
回答
在
pyspark
的StructStreaming中;如何将DataFrame中的每一行(
json
格式的字符串)转换为多列
、
.load() def str_to_
json
(s): lines.select(str_to_
json
(lines.values)) 但这只能将它们转换为
JSON
,而不能转换为列拆分。StructField("items", ArrayType(StringType(
浏览 17
提问于2020-04-21
得票数 2
4
回答
从
pyspark
读取
hdfs
文件
、
、
我正在尝试
读取
hdfs中的一个
文件
。这里显示了我的hadoop
文件
结构。supergroup 2685300 2016-03-06 17:31 /inputFiles/CountOfMonteCristo/BookText.txtfrom
pyspark
浏览 6
提问于2016-03-07
得票数 13
回答已采纳
1
回答
从
Pyspark
Dataframe解析
JSON
字符串
、
、
、
、
我一直在尝试
使用
"from_
json
“和"get_
json
_object”来解析dataframe列中存在的字典,但一直无法
读取
数据。以下是我一直在尝试
读取
的源数据的最小片段: {"value": "\u0000\u0000\u0000\u0000/{\"context\":\"data\"}"} 我需要提取嵌套的dict值。我
使用
下面的代码清理数据并将其
读取
到
浏览 36
提问于2021-04-01
得票数 1
回答已采纳
1
回答
使用
pyspark
解析
json
数据
、
我正在
使用
pyspark
读取
下面的
json
文件
: "data": { "indicatr": {我写了下面的python代码:from
pyspark
浏览 22
提问于2019-11-28
得票数 0
1
回答
如何
使用
Pyspark
将.CSV
文件
转换为.
Json
文件
?
、
、
、
、
我有一个问题,在转换.csv
文件
到多行
json
文件
使用
pyspark
。import
json
spark = SparkSession.builder.appName("jsonco
浏览 9
提问于2018-12-08
得票数 2
1
回答
如何用BytesIO和
PySpark
阅读
json
?
、
、
我希望
使用
PySpark
阅读IO变量中的
json
。:ftp.retrbinary('RETR '+ file_name, io.write)# With pandas我尝试
使用
PySpark
,但不起作用: ftp.retrbinary('RETR '+ file_name, io.write) io.see
浏览 9
提问于2022-05-14
得票数 1
1
回答
将Dataframe激发到StringType
、
、
、
在
PySpark
中,如何将Dataframe转换为普通字符串?我将
PySpark
与Kafka一起
使用
,而不是硬编码代理名称,而是在
PySpark
中参数化了Kafka broker名称。
Json
文件
保存了代理详细信息,Spark
读取
这个
Json
输入并将值赋值给变量。这些变量为带有字符串的Dataframe类型。当我将dataframe传递给
Pyspark
连接细节以替换值时,我将面临问题。只能将字符串(不是Datafr
浏览 0
提问于2021-03-05
得票数 0
1
回答
Spark RDD - Scala写和Python读
、
、
、
、
我有一个简单的Spark Scala脚本,它
读取
一堆日志
文件
并返回一个RDD[Map[String, String]]rec.saveAsTextFile("/path/to/export.
json
"); 但
浏览 0
提问于2017-03-29
得票数 0
1
回答
如何在
PySpark
中
读取
大型
JSON
文件
、
、
、
、
问题HDInsight
PySpark
似乎不支持
JSON
文件
格式的数组输入,所以我被困住了。问题 如何在
PySpark
2中
使用
HDInsight上的开箱即用功能来使这些
文件
被<
浏览 1
提问于2018-02-10
得票数 0
回答已采纳
1
回答
加载程序集时出现的U- SQL问题
、
、
我正在尝试对
Json
的
文件
执行一些操作,为此在简单的
Json
上运行一个测试。我得到了错误,不能理解是什么问题。 // A.Microsoft.Analytics.Samples.Formats.
Json
.JsonExtractor) USING Microsoft.Analytics.Samples.Formats.
Json
JSON
) and Output (e.g. CSV).
JSON
) and Output (e.g. CSV).
文件</
浏览 14
提问于2021-08-12
得票数 0
1
回答
在
pyspark
json
中
使用
预定义的架构
、
、
目前,如果我想用
pyspark
读取
json
,我要么
使用
干扰模式,要么我必须手动定义我的模式StructType。 是否可以
使用
文件
作为模式的引用?
浏览 3
提问于2017-12-07
得票数 0
回答已采纳
1
回答
PySpark
:在Pandas UDF中
使用
pyproj包时,如何解决'python worker连接失败‘的错误?(将经度/经度坐标转换为UTM坐标)
、
、
我有一个带有经度/经度坐标的
json
文件
,我尝试将其转换为
PySpark
中的UTM ("x","y")。.
json
文件
如下所示: {"positionmessage":{"latitude": 51.822872161865234,"longitude": 4.905614852905273}} {"positionmessage":{"latitude":
浏览 20
提问于2020-06-13
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
未找到入口app.json文件,或者文件读取失败,请检查后重新编译
使用python 打开并读取 csv 文件
使用Python获取和读取远程文件
使用Python读取和绘制SVG文件
10行代码教你用Python批量读取json文件,并将其写入excel
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券