腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
在
PySpark
结构化
流
中
对
多个
输出
流
使用
单个
流
DataFrame
、
、
、
有一个连续的数据
流
,在所有转换之后,它具有下一个模式: root |-- device_id: string (nullabletimestamp: string (nullable = true) 还有一组规则,即: if metric_id = 4077 and value > 10 and value < 25 这意味着如果
流
中
的任何行满足该条件,则必须将该行推入不同的
流
中
。如何识别符合警报条件(有<e
浏览 22
提问于2020-12-23
得票数 3
1
回答
使用
套接字连接后,火花
结构化
流
无法工作
、
、
我希望
使用
python将
流
数据从套接字发送到Spark
结构化
流
本地。当我用Netcat尝试这个的时候,它起了作用。但当我制作服务器套接字而不是Netcat时,它就不起作用了。spark版本是3.1.2I,
在
同一台机器上编写了两个不同的jupyter笔记本页。以下是我所做的和回应。推出星火结构
流
在
本stage.
中
建立了->
浏览 0
提问于2021-10-13
得票数 1
3
回答
如何在星火
流
应用程序中
使用
Kafka主题?
、
、
、
当我从Kafka主题创建一个
流
并打印它的内容时 os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-streaming-kafka-0-8_2.11:2.0.2
pyspark
-shell' from
pyspark
.streamingimport Stream
浏览 2
提问于2019-12-08
得票数 1
回答已采纳
1
回答
使用
套接字的火花
结构化
流
,设置模式,
在
控制台中显示
DATAFRAME
、
、
、
如何在
DataFrame
中
为
流
PySpark
设置架构。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.functions\ .getOrCreate() # Create
DataFrame
r
浏览 3
提问于2016-12-29
得票数 3
回答已采纳
1
回答
typeerror: path只能是一个字符串
、
、
、
我正试图
在
本地jupyter笔记本中
使用
pyspark
运行
结构化
流
。代码从目录
中
读取csv文件,并将
输出
流
写入控制台。True),StructField("age", IntegerType(), True),\当我尝试
使用
以下方法读取
流
时1).load("C:/
浏览 5
提问于2022-07-25
得票数 1
1
回答
如何将
流
数据从spark接收到Mongodb?
、
、
我正在
使用
pyspark
读取Kafka的
流
数据,然后我想将这些数据汇到mongodb。
在
call File "/home/b3ds/hdp/spark/python/lib/
pyspark
.zip/
pyspark
/sql/utils.py",第63行,
在
deco "/home/b3ds/hdp/spar
浏览 4
提问于2018-06-04
得票数 2
0
回答
Spark
结构化
流媒体
、
、
如何在Kafka stream上实现从
单个
作业执行
多个
流
SQL查询。
结构化
流媒体是一种可靠的前进方式。例如,我
在
一个作业
中
对
一个
流
运行10个查询。我希望每次执行
流
查询时,都从存储
中
动态挑选查询,即连续查询。
浏览 10
提问于2016-12-20
得票数 1
8
回答
星火结构
流
中
的
多个
聚合
、
、
我想做
多个
聚合在星火
结构化
流
。就像这样: 当我
在
结构化
流
中
运行时,它会给出一个错误:“
流
DataFrames/Datasets不支持
多个
流
聚合”。是否有一种方法可以
在
结构化
流
中
实现这样的
多个
聚合?
浏览 14
提问于2016-12-07
得票数 21
1
回答
在
火花
流
/
结构化
流
中
阅读Kafka的avro消息
、
、
、
、
我第一次
使用
火花放电。火花版本: 2.3.0卡夫卡版本: 2.2.0 我有一个卡夫卡生产者,它以avro格式发送嵌套数据,我正在尝试用火花
流
/
结构化
流
写代码,这将反序列化从kafka到
dataframe
的avro,做转换,把它以拼花格式写成我能够
在
spark/scala中找到avro转换器,但是还没有增加对
pyspark
的支持。如何在火花放电中转换相同的内容。谢谢。
浏览 3
提问于2019-05-02
得票数 3
回答已采纳
1
回答
Databricks :结构
流
数据分配和显示
、
、
、
from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.functionslines = spark.readStream \ .table("myschema.streamTest")
在
notebook 2
中
,我有
在
执行时,我也看不到notebook本身<e
浏览 21
提问于2021-04-23
得票数 1
回答已采纳
1
回答
存储
在
dataframe
中
的
结构化
流
数据
、
、
我有以下表格的火花数据格式:from
pyspark
.sql.functions import * sdf_cons.show() I正在以下列形式接收
结构化
流
数据:
浏览 2
提问于2022-05-26
得票数 0
1
回答
Spark
dataframe
访问Kafka源后失去流媒体能力
、
、
、
、
我
使用
Spark 2.4.3和Kafka 2.3.0。我想用从Kafka到Spark的数据做Spark
结构化
流媒体。一般来说,它可以
在
测试模式下工作,但由于我必须对数据进行一些处理(并且不知道另一种方法),Spark数据帧不再具有流式传输功能。 #!/usr/bin/env python3 from
pyspark
.sql.functions import from_jsondf2 = df1.wit
浏览 22
提问于2019-09-10
得票数 0
回答已采纳
1
回答
如何
使用
PySpark
结构化
流
计算时间戳之间的差异
、
、
我
对
PySpark
结构化
流
有以下问题。有没有人知道如何做到这一点?我尝试
使用
结构化
流
文档的窗口函数示例,但是没有用。 非常感谢
浏览 0
提问于2019-11-14
得票数 1
1
回答
如何在
流
数据集上执行df.rdd或df.collect().foreach?
、
、
、
org.apache.spark.sql.AnalysisException: Queries with streaming sources must be executed with writeStream.start();;它在Dataframes
中
运行良
浏览 0
提问于2018-01-11
得票数 3
回答已采纳
2
回答
星火结构
流
和DStreams有什么区别?
、
我一直在网上寻找材料--两者都是基于微批次的--那么有什么区别呢?
浏览 0
提问于2018-03-15
得票数 13
回答已采纳
2
回答
如何将Kinesis数据
流
合并为一个数据
流
以进行Kinesis数据分析?
、
、
、
我有
多个
AWS kinesis数据
流
/firehose和CSV格式的
结构化
数据。我需要
使用
运动数据分析
对
这些数据执行分析。但是如何将
多个
流
合并为一个
流
呢?因为Kinesis数据分析仅从一个
流
中
获取数据。数据
流
可以存在于不同的地域。 问题:如何将Kinesis数据
流
合并为一个用于Kinesis数据分析的数据
流
?
浏览 3
提问于2020-08-25
得票数 0
1
回答
如何将输入数据
流
保存到Spark
中
sql查询的执行数据结构
中
?
、
、
、
、
我的目标是
在
某种数据结构
中
维护输入数据
流
,以便
对
它们执行查询和聚合操作。以连续数据
流
为输入,通过spark的
结构化
流
,我将其存储
在
DataFrame
中
。我的问题是: 是一种易失性的数据结构吗?
在
程序崩溃的情况下,是维护的吗?是分布
在
集群各个节点上的
DataFrame
,还是保存在执行代码的节点上?可以
在
DataFrame
上创建索引
浏览 1
提问于2020-04-23
得票数 0
1
回答
在
火花
结构化
流
中保留给定键的最后一行
、
、
类似于Kafka的日志压缩,有很多用例要求它只保留
对
给定键的最后更新,并
使用
结果(例如,用于连接数据)。B | 2 | foobarA | 15 | foobeedoo----------------------------
浏览 0
提问于2018-06-12
得票数 5
回答已采纳
1
回答
Azure事件集线器到Databricks,
在
使用
中
的dataframes发生了什么
、
、
我一直
在
开发Azure事件集线器的概念证明,
使用
Pyspark
将json数据流到Azure Databricks笔记本。
在
我看到的示例
中
,我创建了我的粗略代码,如下所示,将数据从事件集线器接收到我将用作目的地的delta表ehConf = {'eventhubs.connectionString("append") \ .option("checkpointLocation&
浏览 1
提问于2019-11-12
得票数 1
回答已采纳
1
回答
结构化
流式Python API
在
文档
中
,它说像
结构化
流
中
的mapGroupsWithState这样的有状态操作只支持Scala和Java,但我确实需要python
中
的有状态功能。我该怎么办?
浏览 0
提问于2018-04-12
得票数 4
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
开发近两年,流、Python、SQL重大更新全面解读
Spark 2.3重磅发布:欲与Flink争高下,引入持续流处理
一文读懂Apache Spark
大数据:Spark
PySpark,一个大数据处理利器的Python库!
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券