腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6703)
视频
沙龙
1
回答
Pyspark
找不到
数据源
:
kafka
、
、
、
df_TR = Spark.readStream.format("
kafka
").option("
kafka
.bootstrap.servers", "localhost:9092").option("示例: java.lang.ClassNotFoundException:
找不到
数据源
:
kafka
。请在上查找软件包Spark =
浏览 14
提问于2019-11-06
得票数 4
1
回答
在火花流/结构化流中阅读
Kafka
的avro消息
、
、
、
、
火花版本: 2.3.0卡夫卡版本: 2.2.0 我有一个卡夫卡生产者,它以avro格式发送嵌套数据,我正在尝试用火花流/结构化流写代码,这将反序列化从
kafka
到dataframe的avro,做转换,把它以拼花格式写成我能够在spark/scala中找到avro转换器,但是还没有增加对
pyspark
的支持。如何在火花放电中转换相同的内容。谢谢。
浏览 3
提问于2019-05-02
得票数 3
回答已采纳
1
回答
如何正确地向Google提交
kafka
流吡源作业
、
、
、
我正试图通过Dataproc提交一个
pyspark
作业,并不断得到一个错误,看起来它没有加载
kafka
流包。下面是我的代码(streaming.py):from
pyspark
.sql import SparkSessionfrom
pyspark
.streaming.
kafka
import KafkaUti
浏览 0
提问于2018-03-11
得票数 0
回答已采纳
1
回答
我可以使用spark 2.3.0和
pyspark
来做
Kafka
的流处理吗?
、
、
我将使用
pyspark
进行流处理,并使用
Kafka
作为
数据源
。 我发现Spark Python API不支持
Kafka
0.10连接器。我可以在Spark 2.3.0中使用
Kafka
0.8连接器吗?
浏览 14
提问于2018-03-02
得票数 4
1
回答
如何以编程方式将
Kafka
主题加载和流到
PySpark
数据
、
、
、
import
pyspark
from
pyspark
.context import SparkContextdf = spark \ .format("
kafka
") \ .option("
kafka
.bootstrap.servers", "localhost:", "Jim_Topic&quo
浏览 1
提问于2020-06-12
得票数 1
1
回答
将电火花与卡夫卡连接起来
、
、
、
、
我很难理解卡夫卡和
PySpark
之间的联系。 AnalysisException:未能找到
数据源
:
kafka
。请按照“结构化流-卡夫卡集成指南”的部署部分部署应用程序。如果我正在开发
pyspark
应用程序,那么在哪里以及如何添加这些依赖项?看到答案说 “您需要在您的包中添加<em
浏览 6
提问于2021-12-16
得票数 4
回答已采纳
1
回答
使用python和
Kafka
提供错误的火花结构化流
、
、
、
、
“”“ .format("
kafka
") \文件"C:\Users\AppData\Local\Programs\Python\Python38-32\lib\site-packages\
pyspark
\C:\Users\AppData\Local\Programs\Python\Pyth
浏览 0
提问于2020-12-25
得票数 1
回答已采纳
1
回答
Neo4j作为火花放电的
数据源
、
、
、
、
然后使用
Kafka
作为星火的
数据源
。例如: 我想知道哪一个对大量数据更有效?如果有更好的方法来解决这个问题,请帮助我。注意:为了在python中创建自定义的RDD,我确实尝试了扩展
pyspark
。与Spark的Scala/Java相比,
pyspark
is API是非常不同的。但是在
pyspark
中,我在compute()中的RDD类下
找不到
浏览 7
提问于2018-01-09
得票数 2
1
回答
结构化流
Kafka
2.1->齐柏林飞艇0.8->星火2.4:火花不使用jar
、
、
、
、
我下载了结构化流()所必需的星火流-
kafka
-0-10_2.11.jar,并将其作为“依赖-工件”添加到齐柏林飞艇( Zeppelin )的“streaming”-interpreter(也处理%
pyspark
现在,我想进行测试,
kafka
服务器使用这个端口在同一台机器上运行,还有一个主题是“测试”:# Subscribe to a topic .readStream", "test") \但我明白错误 无法执行第6行
浏览 1
提问于2019-07-19
得票数 5
回答已采纳
3
回答
如何将数据从卡夫卡传递到星火流?
、
、
、
这就是我到现在为止所做的: from __future__ import print_functionfrom
pyspark
.streaming import StreamingContextfrom
pyspark
import SparkContext,Spa
浏览 6
提问于2016-01-18
得票数 11
1
回答
TypeError:'JavaPackage‘对象不可调用&在类路径中
找不到
Spark Streaming的
Kafka
库
、
、
、
我使用
pyspark
流来读取
kafka
数据,但它出错了:from
pyspark
.streaming.
kafka
import KafkaUtilssc = SparkContext(appName="test") sc.setLogLevel
浏览 0
提问于2020-01-05
得票数 0
1
回答
如何使用
Kafka
格式化Azure Eventhub的
pyspark
连接字符串
、
、
、
我正在尝试从一个启用了
Kafka
兼容性的Azure Eventhub中使用
Pyspark
解析JSON消息。我
找不到
任何有关如何建立连接的文档。import osfrom
pyspark
.streaming import StreamingContext from
pyspark
.streaming.
kafka
浏览 9
提问于2019-08-19
得票数 0
回答已采纳
1
回答
使用
pyspark
- stucked将数据从
kafka
写入hive
、
、
我对spark非常陌生,并从
pyspark
开始,我正在学习使用
pyspark
将数据从
kafka
推送到hive。from
pyspark
.sql import SparkSessionfrom
pyspark
.sql.functionsimport *from os.path
浏览 2
提问于2020-02-17
得票数 0
1
回答
如果Maven坐标必须是'groupId:artifactId:version‘
PySpark
和
Kafka
格式的
、
、
当将
Kafka
消息转换为dataframe时,在将包作为参数传递时会出现错误。from
pyspark
.sql import SparkSession, Rowfrom
kafka
importKafkaConsumer os.environ['
PYSPARK
_SUBMIT_ARGS'] = '--packages org.apache.spark:spark-sql-<
浏览 1
提问于2020-06-12
得票数 2
回答已采纳
2
回答
pyspark
streaming DStreams to
kafka
主题
、
、
、
简单地说,有没有可能将DStream流式传输到
Kafka
主题? 我有火花流作业,它做了所有的数据处理,现在我想把数据推送到卡夫卡主题。在
pyspark
中可以做到这一点吗?
浏览 1
提问于2018-06-08
得票数 0
1
回答
如何将流数据从spark接收到Mongodb?
、
、
我正在使用
pyspark
读取
Kafka
的流数据,然后我想将这些数据汇到mongodb。我已经包含了所有必需的包,但是它会引发以下错误 UnsupportedOperationException:
数据源
com.mongodb.spark.sql.DefaultSource不支持流写入。com.mongodb.spark.sql.DefaultSource )在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)上,
数据源
im
浏览 4
提问于2018-06-04
得票数 2
2
回答
pyspark
.sql.utils.AnalysisException:未能找到
数据源
:
kafka
、
、
、
、
/
kafka
-server-start.sh /usr/local/
kafka
/config/server.properties这是我的密码:import osfindspark.init("/usr/local
浏览 2
提问于2020-02-14
得票数 5
回答已采纳
1
回答
带有
pyspark
结构流的
kafka
自定义分割器
、
、
我想为我的
pyspark
应用程序使用
kafka
自定义分割器,从
kafka
推送到另一个
kafka
主题。使用
pyspark
处理将数据从源转换到宿。在中,我
找不到
此类用例的任何参考资料或示例。我正在使用python处理和
pyspark
,被用作
kafka
客户端,但它也缺乏自定义分区程序的文档/示例。 ).select(["topic", "key&
浏览 1
提问于2021-11-01
得票数 1
1
回答
面对来自守护进程-Windows的错误响应
、
、
、
docker在windows上运行apache,我的docker-compose.yml代码如下所示:services: image: jupyter/
pyspark
-notebookcontainer_name: zookeeper - '2181:2181' - ALLOW_ANONYMOUS_LOGIN=yes image: 'bitn
浏览 14
提问于2022-09-07
得票数 0
1
回答
pyspark
kafka
提交失败
、
、
、
我正在使用
pyspark
在
kafka
上消费数据,我在我的控制台上输入以下内容以提交: File "/Users/alexsun/binSoftw
浏览 11
提问于2018-01-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
免费的数据源网站大全!再也不愁找不到数据练手
一文读懂PySpark数据框
一文读懂 PySpark 数据框
一个Python大数据处理利器:PySpark入门指南
如何将外部数据源与Spark集成?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券