腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
通过
火花
流
从
HBase
读取
数据
、
、
所以我的项目流程是Kafka -> Spark Streaming ->
HBase
现在我不知道如何使用Spark Streaming
从
<e
浏览 30
提问于2016-07-25
得票数 1
回答已采纳
1
回答
火花
的慢速性能
、
、
、
我在集群模式下使用星火(1主,2个
从
站,8个核心,每个32 Gb,运行在Yarn和Hdfs之上) private static但是,如果我举一个
从
Hbase
读取
文件并执行转换和显示结果的简单示例,它是非常快速的。我能够在2分钟内处理8Gb文件。
浏览 7
提问于2022-04-08
得票数 0
2
回答
读取
火花
流
中的
Hbase
数据
、
、
一开始,我尝试使用newAPIHadoop
从
hbase
获取
数据
。只说一次,我的意思是,每次我启动我的
火花
流
应用程序,这段代码片段将被执行,我可以得到一个值,但它将不再执行。最后,我发现还有一种使用
hbase
.clinet HTable
从
hbase
读取
数据
的方法。比方说,如果我在1秒内有1000多个记录,那么我的
火花
流
中就会设置1000个连接。 这是
从
hba
浏览 5
提问于2016-09-29
得票数 3
回答已采纳
2
回答
按顺序执行
火花
流
操作
、
、
、
我在
火花
流
应用程序中
读取
kafka的
数据
,并执行两个操作。将dstreams插入
hbase
表A 我希望确保dstream中的每个rdd在对
hbase
表B的更新操作之前插入到
hbase
表A(对每个rdd依次执行上述两个操作)如何在
火花
流
应用程序中实现这一点
浏览 5
提问于2017-05-30
得票数 2
回答已采纳
1
回答
如何用JAVA读写
HBASE
中的
数据
、
、
我可以
通过
HBASE
项目提供的JAVA读写
HBASE
中的
数据
。但这样的
读取
操作将在
火花
驱动程序中进行处理,这似乎不是一种聪明的方法。是否有
火花
方式
从
HBASE
读取
数据
,以便在不同的工人中完成阅读操作,以提高绩效?
浏览 3
提问于2017-07-13
得票数 0
回答已采纳
1
回答
Hbase
火花
流
、
、
我试图
从
hbase
获得
数据
,尽管我发现,要获得
Hbase
的
数据
,我必须
通过
Kafka,是否有可能在
火花
流
和
hbase
之间直接集成,而不将Kafka包括在链中谢谢。
浏览 3
提问于2017-01-11
得票数 5
回答已采纳
2
回答
如何使用scala使用spark streaming
从
HBASE
表中获取
数据
、
、
、
我正在尝试确定一种解决方案,使用
火花
流
从
HBASE
表中
读取
数据
,并将
数据
写入另一个
HBASE
表。例如,如果我有一个
HBASE
表'SAMPLE‘,它的列是'name’和'
浏览 0
提问于2018-12-11
得票数 0
2
回答
火花
卡夫卡
流
- java.lang.NoClassDefFoundError: akka/util/Helpers$ConfigOps$
、
、
、
我正在编写一个用Scala编写的星星之火应用程序,它听着一个Kafka主题。应用程序只是打印收到的消息,仅此而已。我在我的机器上运行这个..。import org.apache.spark.SparkConfimport org.apache.spark.streaming.kafka.KafkaUtils..... val topics = "topicNa
浏览 0
提问于2015-12-11
得票数 0
回答已采纳
1
回答
利用Apache
火花
数据
、
、
、
、
目前,我正在阅读关于Kafka & Spark的教程,有些事情我无法理解:如何利用/公开收到的
数据
。以下是我想要理解的:我读过很多来自Spark的特性,它可以使用内存中的存储(也可以被持久化或缓存)将RDDs转换成其他R
浏览 0
提问于2017-02-16
得票数 2
回答已采纳
1
回答
火花
流
:源
HBase
、
、
、
是否可能有
火花
流
作业设置来跟踪
HBase
表并
读取
每批新的/更新的行?博客说HDFS文件属于受支持的源代码。但是他们似乎使用了以下静态API:谢谢!
浏览 4
提问于2016-12-08
得票数 2
1
回答
存储传入流
数据
的最佳方法是什么?
、
、
、
、
对于
通过
星火
流
处理的
数据
的长期存储(很多写,很少
读取
)来说,有什么更好的选择: Parquet、
HBase
或Cassandra?还是别的什么?什么是权衡?
浏览 0
提问于2016-11-12
得票数 5
1
回答
度量收集和分析体系结构
、
、
、
、
首先,不需要存储所有
数据
,因为用户只需要指定时间段的图表,因此需要一些聚合。什么样的
数据
库解决方案适合它?我相信没有RDMS会处理这么多的
数据
。那么,如何获取度量的平均
数据
来将其呈现给最终用户呢?AWS具有共享的时间序列
数据
处理架构: 很简单,我是这样想的: 旧表存储在
浏览 0
提问于2018-11-26
得票数 1
1
回答
用saveAsNewAPIHadoopDataset阻塞python向
Hbase
写入
数据
的
火花
流
、
、
我正在使用
火花
流
python阅读卡夫卡并写到
hbase
,我发现在saveAsNewAPIHadoopDataset舞台上的工作很容易被屏蔽。如下图所示:你会发现这一阶段的持续时间是8小时。请
通过
Hbase
api写入
数据
,还是直接
通过
HDFS写入
数据
?
浏览 3
提问于2015-04-24
得票数 0
2
回答
实时的蜂窝
数据
转换?
、
、
、
、
我有以下
数据
管道:正如你所看到的,第三步使我的管道变得不
浏览 1
提问于2020-02-13
得票数 1
回答已采纳
1
回答
为什么持久化(StorageLevel.MEMORY_AND_DISK)给出的结果与
HBase
的cache()不同?
、
、
、
、
df.persist(StorageLevel.MEMORY_AND_DISK)我将persist(StorageLevel.MEMORY_AND_DISK)替换为cache(),它将按预期
从
HBase
我们尝试使用persist(StorageLe
浏览 1
提问于2018-08-27
得票数 3
1
回答
什么是与
Hbase
交互的最佳方式?
、
、
、
、
我使用的是
火花
火花
2.3.1和
Hbase
1.2.1,我想知道怎样才能最好地使用pyspark访问
Hbase
?SparkContext() data_source_format = 'org.apache.spark.sql.execution.datasources.
hbase
application main()spark-sub
浏览 1
提问于2019-02-22
得票数 1
回答已采纳
1
回答
火花
结构化
流
检查点在生产中的使用
、
、
、
、
当使用Spark结构化
流
时,我难以理解检查点是如何工作的。 将已连接的DataFrame写入
HBase
表。在每次运行此代码时,我都希望只
从
流
中
读取</e
浏览 7
提问于2020-07-08
得票数 3
1
回答
hbase
跳过区域服务器直接
从
hfile
读取
行
、
、
、
目前正在使用
Hbase
对hdfs上的不同
数据
进行排序。该应用程序正在使用spark构建。 当
从
hbase
读到
火花
时,区域似乎决定了
火花
的划分,从而决定了2G的极限。,这是否意味着区域大小需要很小?绕过该区域的T
浏览 3
提问于2017-03-22
得票数 2
回答已采纳
1
回答
SparkStreaming一直在处理卡夫卡中的任何
数据
、
、
、
我正在使用
火花
汽蒸来使用卡夫卡的
数据
,代码片段如下:rdd.foreachRdd{rdd=>rdd.foreachPartition{...}}我使用foreachPartition,因为我需要创建与
Hbase
的连接,我不想打开/关闭每条记录的连接。但我发现,当卡夫卡没有
数据
时,
火花
流
仍然在处理foreachRdd和foreachPartition。这导致许多
Hbase
连接被创建,即使没有任何
数据
被消耗。我真的不喜欢这样,如果没有卡夫卡
浏览 0
提问于2015-09-06
得票数 1
回答已采纳
1
回答
减少Spark和
HBase
节点之间的延迟
、
、
我在星火节点和
HBase
节点之间经历了很高的延迟。当前的资源要求我在不同的服务器上运行
HBase
和Spark。使用Snappy算法对HFiles进行压缩,将每个区域的
数据
大小
从
50 to减少到10 to。然而,在有线上传输的
数据
总是被解压缩的,所以
读取
需要花费大量的时间--大约是每秒20 MB的,即每50 MB区域的大约45分钟。我想在本地将
H
浏览 2
提问于2016-01-28
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
LSL实时数据流(二)之NIRS数据读取
通过BulkLoad快速将海量数据导入到Hbase
Pandas从MySQL中读取和保存数据
通过PHP读取mysql数据库数据,在页面展示
Python文件读取技巧:从文件读取数据到内存缓存的高效方法
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券