腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1770)
视频
沙龙
1
回答
如
何在
Spark
Kafka
Connector
中
获取
对象
的
JavaDStream
?
、
、
、
我正在使用
Spark
Kafka
连接器从
Kafka
集群
获取
数据。从中,我将以
JavaDStream
<String>
的
形式
获取
数据。在EventLog是Java bean
的
情况下,如何获得
JavaDStream
<EventLog>形式
的
数据?public static
JavaDStream
<EventLog> fetchAndValidateData(String
浏览 21
提问于2016-08-11
得票数 0
回答已采纳
1
回答
使用
Spark
将
Kafka
消息直接写入文件
、
、
对于一个类项目,我需要一个
Spark
Java程序作为
Kafka
消费者来监听,并将
Kafka
主题
的
所有接收到
的
消息写入一个文件(例如"/user/zaydh/my_text_file.txt")。我可以将消息作为JavaPairReceiverInputDStream
对象
接收;我还可以将其转换为
JavaDStream
<String> (来自
Spark
Kafka
示例)。但是
浏览 0
提问于2015-10-22
得票数 0
2
回答
将SparkStreaming
中
的
数据从
Spark
Workers保存到Cassandra是否可行
、
、
、
、
SparkStreamingContext是在驱动程序上创建
的
,无法序列化。所以,我们不能在workers上访问这个
对象
。现在,为了利用
Spark
的
分布式特性,我们将在workers上处理数据/流。因此,直接从工作进程保存数据是有意义
的
,而不是将所有数据收集到驱动程序,这可能会产生OOM。 我有这样
的
场景,我需要应用一些业务逻辑,最后需要将数据存储到cassandra。那么,我该怎么做呢?
浏览 12
提问于2016-09-09
得票数 1
2
回答
Kafka
火花Scala Cassandra兼容版本
、
、
、
但是,在获得这些工具
的
正确
的
可兼容版本方面,我面临着许多问题。提前谢谢..。
浏览 7
提问于2017-09-29
得票数 1
回答已采纳
1
回答
卡夫卡火花流数据没有被写入卡桑德拉。插入零行
、
、
、
闪回
的
是:我能够创建与cassandra
的
连接,但是数据没有被插入到cassandra表
中
。</groupId> <version>1.1.
浏览 0
提问于2014-12-09
得票数 0
回答已采纳
1
回答
Spark
Streaming保存到Cassandra表
、
、
、
我已经创建了一个JavaPairInputDStream,并尝试将消耗
的
数据保存到Cassandra表
中
。但是面临着问题,并且不确定如何从代码开始:package com.test.anna.KafkaSpark; import org.apache.
spark
.streamin
浏览 0
提问于2017-10-05
得票数 0
1
回答
如何确定
Kafka
消息
的
主题
、
、
、
我有像下面这样
的
代码从
Kafka
中
读取并保存到Elasticsearch,我正在使用
spark
streaming: jssc.start(); 我
的
问题是,我需要根据主题
的
名称使&quo
浏览 5
提问于2018-02-04
得票数 0
回答已采纳
2
回答
如
何在
使用卡夫卡时从星火中
获取
偏移id,并将其保存在卡桑德拉并重新启动卡夫卡?
、
、
、
我使用星火消费卡夫卡
的
数据,并保存在卡桑德拉。我
的
程序是用Java编写
的
。我正在使用
spark
-streaming-
kafka
_2.10:1.6.2库来完成这个任务。我
的
代码是:JavaStreamingContext jssc = new JavaStreamingContextStringDecoder.class, EventLogDecoder
浏览 1
提问于2016-08-26
得票数 11
回答已采纳
1
回答
与卡夫卡擦出火花: org.apache.
kafka
.clients.consumer.KafkaConsumer.subscribe(Ljava/util/Collection;):NoSuchMethodError
、
、
我尝试运行java
kafka
consumer for
spark
,无论我做什么,我都会得到异常。在我看到
的
异常(ConsumerStrategy.scala:85)
中
,为什么这里写着scala?我
的
库
中
是否有冲突?;import org.apache.
spark
.streaming.Durations; import org.apache.
spark
.stre
浏览 59
提问于2020-04-08
得票数 1
回答已采纳
1
回答
如何使用java保存火花流到cassandra
的
数据?
、
、
、
我从linux终端
的
流
中
获取
一些条目,将它们分配为lines,并将它们分解为words。但我不想把它们打印出来,而是把它们保存给卡桑德拉。我有一个名为ks
的
密钥空间,其中有一个表名为record。代码:import org.apache.
spark
.SparkConf; import org.apache.
spark</em
浏览 2
提问于2016-05-12
得票数 1
回答已采纳
2
回答
运行Apache流时
获取
Hadoop OutputFormat RunTimeException
、
、
、
、
我正在运行一个程序,它使用Apache从Apache集群
获取
数据,并将数据放在Hadoop文件
中
。我
的
计划如下: public static void main(String[] args) {:2181", "NameConsumer", topicMap);
JavaDStream
<String> lines = messages.map(new Function<Tu
浏览 3
提问于2016-07-21
得票数 1
回答已采纳
2
回答
使用Java
Spark
-
Kafka
直接流不能从
kafka
主题
获取
价值
、
、
、
、
我没有从使用
Kafka
直接流
的
队列
中
获得任何数据。在我
的
代码
中
,我放入了System.out.println(),这条语句没有运行,这意味着我没有从该主题获得任何数据。我非常确定队列
中
的
数据是可用
的
,因为没有进入控制台。有没有人能提个建议?下面是我
的
Java代码, SparkConf sparkConf = new SparkConf().setAppName("JavaKafkaWord
浏览 2
提问于2016-11-23
得票数 1
1
回答
在
spark
2.4.X
中
获取
kafka
头文件
、
、
如
何在
Spark
Structured Streaming
中
获取
Kafka
header字段(在
Kafka
0.11+
中
引入)?我看到headers实现是在
Spark
3.0
中
添加
的
,但在2.4.5
中
没有。我看到默认情况下
spark
-sql-
kafka
-0-10使用
的
是
kafka
-client 2.0。如果不能使用
Spa
浏览 0
提问于2020-03-09
得票数 0
1
回答
Spark
1.5.1 + Scala 2.10 +
Kafka
+ Cassandra = Java.lang.NoSuchMethodError:
、
、
、
、
我想把
Kafka
+ Cassandra连接到
Spark
1.5.1。这些库
的
版本: "org.apache.
spark
" % "
spark
-streaming_2.10" % "1.5.1", "org.apache.
spark
" % "
spark</e
浏览 2
提问于2015-11-07
得票数 1
2
回答
Spark
Cassandra连接器错误: java.lang.NoClassDefFoundError: com/datastax/
spark
/
Connector
/TableRef
、
、
、
Spark
version:3.00Cassandra::3.11.4 .builder \ .config("
spark
.jars","
spark
-streaming-
kafka
-0-10_2.12-3.0.0.jar,
spa
浏览 27
提问于2020-06-27
得票数 2
回答已采纳
3
回答
如何从
kafka
向hive发送数据
、
我想从
Kafka
(做一些MapReduce工作)发送数据到hive。或者一些更好
的
方法?
浏览 2
提问于2018-05-15
得票数 2
1
回答
PySpark RDD与Scala
的
转换
、
、
我正在开发一个PySpark应用程序,它使用星火流从
Kafka
提取数据。我
的
消息是字符串,我想在Scala代码
中
调用一个方法,向它传递一个DStream[String]实例。但是,我无法在Scala代码
中
接收到适当
的
JVM字符串。在我看来,Python字符串不是转换成Java字符串,而是序列化
的
。我正在PySpark
浏览 4
提问于2016-09-12
得票数 5
回答已采纳
3
回答
火花累加器不显示在
Spark
WebUI
中
我用
的
是火花流。根据火花编程指南(参见),命名累加器将显示在WebUI
中
,如下所示: ssc.sparkContext.sc().register(accumulator, "my accumulator"); 我使用
的
是
Spark
2.0.0。
浏览 2
提问于2015-04-24
得票数 12
1
回答
在Java中将JavaPairDStream转换为Tuple3
我正在试验星火作业,它从
Kafka
中流数据并生产给Cassandra。
JavaDStream
words.mapToPair(s -> new Tuple2<&
浏览 1
提问于2017-05-11
得票数 0
回答已采纳
1
回答
spark
streaming
中
限制
Kafka
消费数据
、
、
Spark
从
kafka
获取
数据。我想通过
spark
-streaming限制记录消耗。关于卡夫卡
的
数据非常庞大。我使用
spark
.streaming.
kafka
.maxRatePerPartition=1属性来限制
spark
中
的
记录。但是仍然在5分钟内,我收到了13400条消息。我
的
spark
程序每5分钟不能处理超过1000条消息。
Kafka
topic有3个分区。
浏览 17
提问于2018-02-06
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
SparkStreaming&Kafka——Receiver方式
Flink CDC 的实现原理是什么?
SparkStreaming&Kafka——Direct方式
Spark Streaming 2.2.0 Example
亚马逊工程师的代码实践
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券