腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
hadoop在哪里存储
hbase
数据
?是否有
hbase
数据
的物理路径?
hadoop在哪里存储
hbase
数据
?是否有
hbase
数据
的物理路径?我想使用sqoop将
hbase
数据
导出到MS。我需要指定参数export。但我找不到
hbase
数据
的
数据
。有人能帮忙吗? 谢谢
浏览 1
提问于2015-02-17
得票数 0
回答已采纳
2
回答
Hbase
如何
写入
数据
以及
写入
位置
、
我是
Hbase
的新手,我只想了解
Hbase
的写操作。如果多个客户端在同一个表中
写入
,那么
Hbase
如何保持对物理文件的顺序
写入
。
Hbase
将
数据
存储在哪里(我认为是在HDFS中)?我们可以在HDFS之外存储
Hbase
数据
吗?
浏览 2
提问于2013-04-12
得票数 0
回答已采纳
1
回答
在HDFS中本地化HFile块
、
、
我们使用Mapreduce批量创建HFiles,然后以增量方式/批量加载到
HBase
中。我注意到,load只是一个HDFS移动命令(它不会物理上移动文件的块)。由于我们进行了大量的
HBase
表扫描,并且启用了短路读取,因此将这些HFiles本地化到其各自区域的节点将是有益的。
浏览 3
提问于2015-08-09
得票数 2
2
回答
如何使用scala使用spark streaming从
HBASE
表中获取
数据
、
、
、
我正在尝试确定一种解决方案,使用火花流从
HBASE
表中读取
数据
,并将
数据
写入
另一个
HBASE
表。例如,如果我有一个
HBASE
表'SAMPLE‘,它的列是'name’和'activeStatus‘。如何使用spark streaming从基于activeSta
浏览 0
提问于2018-12-11
得票数 0
2
回答
将HDFS
数据
导入到Opentsdb
、
、
我想知道是否有可能直接将
数据
从HDFS导入到Opentsdb。你能给我举一些例子/提示吗?
浏览 0
提问于2015-04-17
得票数 1
1
回答
Hive to
Hbase
:星火的错误用例?
、
、
、
最近,在将
数据
从Hive迁移到
Hbase
方面,我遇到了一个问题。作为初学者,我认为使用Spark从Hive加载表
数据
是个好主意。我使用正确的Hive列/
HBase
ColumnFamily和列映射在
Hbase
中插入
数据
。我找到了一些关于如何将
数据
批量插入到
Hbase
中的解决方案,例如我们可以使用hbaseContext.bulkPut或rdd.saveAsHadoopDataset (我测试了这两种方法的相似结果)。在一次又一次地修改reg
浏览 0
提问于2016-06-02
得票数 1
1
回答
在
写入
记录时,
hbase
是否读取任何内容?
我正在为我们的应用程序做
HBase
分析。我正在尝试插入从Spark到
HBase
的行。我每批插入700万条记录,并观察每个指标。在查看Clouera Manager的
HBase
UI时,有一件有趣的事情给我留下了深刻的印象:即使我正在向
HBase
写入
数据
,我仍然可以看到读取和
写入
的峰值。我可以在
HBase
主UI中看到读写的请求。
HBase
在写记录的时候会读任何东西吗?
浏览 0
提问于2016-08-13
得票数 0
1
回答
1个Hadoop和
Hbase
大簇与1个Hadoop簇+1个
Hbase
簇
、
Hadoop将通过从
Hbase
读取
数据
并将
数据
写入
Hbase
来运行许多作业。假设我有100个节点,那么有两种方法可以构建Hadoop/
Hbase
集群: 哪种
浏览 4
提问于2014-04-19
得票数 1
回答已采纳
2
回答
Hbase
性能
、
、
、
我的应用程序运行多个线程来插入到
数据
库中。我观察到,一旦并发
写入
的数量超过20个左右,插入就会开始花费大量时间(有些甚至需要1000秒)。当这种情况发生时,读取也开始失败,并且我的webapp无法从
数据
库中提取任何
数据
(我的webapp挂起)。我不是一个喜欢NoSQL
数据
库的人,因此不知道从哪里开始寻找性能。我的主要配置是: Zookeeper仲裁大小:1
HBase
区域服务器:2个
数据
节点:2个
hbase
.zookeeper.property.maxC
浏览 4
提问于2011-08-30
得票数 3
回答已采纳
1
回答
来自远程
hbase
服务器的猪读/写
数据
、
、
、
我想从
hbase
远程服务器上读取/
写入
来自pig脚本的
数据
。我们正在使用Hortonworks HDP 2.5我们有两个星系团,一个用于蜂巢,另一个用于
Hbase
。作为需求的一部分,我们还必须从
Hbase
表中读取/
写入
数据
。该解决方案建议在我们的猪脚本中注册
hbase
服务器的动物园管理员仲裁。但是语法不起作用。:8020/
hbase
>
浏览 0
提问于2017-05-15
得票数 1
1
回答
HBase
: MasterNotRunningException:节点/
hbase
不在动物园管理员中
、
、
、
、
我正在构建一个带有流集的管道,用于从kafka主题读取
数据
并将其
写入
HBase
表。我能够将它
写入
HDFS文件,但是当我尝试使用
HBase
目的地时,我会得到以下错误:我使用cloudera管理服务,并在
HBase
目标上配置了以下属性:Zookeeper client port: 2181我在<em
浏览 1
提问于2017-12-22
得票数 2
回答已采纳
1
回答
将
HBase
表
数据
保存在特定的HDFS位置
、
在Hive表上,我可以创建外部表来保存特定HDFS位置上的
数据
。我想在
HBase
上做类似的事情,这样就可以将
HBase
表
数据
保存在外部HDFS位置上。在类似于Hive的
HBase
上可以这样做吗?我想知道HDFS上保存
HBase
表
数据
的默认路径是什么? 谢谢
浏览 4
提问于2020-12-18
得票数 0
回答已采纳
1
回答
Zookeeper是否为
Hbase
存储持久
数据
、
3个节点运行Zookeeper,其余7个节点运行HDFS和
Hbase
。而且
Hbase
已经存储了很多
数据
。我想知道这3个Zookeeper节点是否丢失了可能是
Hbase
mata
数据
的持久
数据
。或者说,
Hbase
将元
数据
存储在Hmaster中,而Zookeeper只存储一些内存
数据
。
浏览 4
提问于2016-07-09
得票数 1
2
回答
HBase
单行事务支持中的行锁定
、
、
、
在
HBase
中,为了提供单行事务支持,它使用了行锁定概念。例如,假设 p1 put不应该工作,因为该行已经被锁定,但在
HBase
0.94中,当我尝试时,它正在工作。
浏览 4
提问于2013-02-16
得票数 2
1
回答
Flink检查点状态始终在进行中。
、
我使用datastream连接器KafkaSource和HbaseSinkFunction,使用kafka提供的
数据
并将其
写入
hbase
。我启用检查点如下:env.enableCheckpointing(3000,CheckpointingMode.EXACTLY_ONCE); kafka中的
数据
已经成功地
写入
了
hbase
,但是ui页面上的检查点状态仍在Flink版本:1.13.3,
Hbase
版本:1.3.1,Kafka版本:0.10.2
浏览 14
提问于2021-12-22
得票数 0
1
回答
"Insert“只允许在
Hbase
中使用
、
、
在
Hbase
中是否可以只给表/列族“只插入”权限? 我查看了Apache上的
Hbase
文档,但没有发现任何相关内容,当前的ACL具有“写”权限,其中将包括"insert+update“。
浏览 0
提问于2016-01-12
得票数 2
1
回答
使用python
写入
hbase
2.0
、
、
我目前正在使用pybase库通过python将
数据
写入
hbase
。我一直都可以写
hbase
1.0,但是最近迁移到
hbase
2.0带来了一些问题。我现在看到的主要错误发生在我试图
写入
我的
Hbase
2.0表时。 org.apache.hadoop.
hbase
.exceptions.UnknownProtocolException.Remote traceback: org.apache.hadoop.
hbase
.except
浏览 162
提问于2020-10-05
得票数 0
1
回答
用saveAsNewAPIHadoopDataset阻塞python向
Hbase
写入
数据
的火花流
、
、
我正在使用火花流python阅读卡夫卡并写到
hbase
,我发现在saveAsNewAPIHadoopDataset舞台上的工作很容易被屏蔽。如下图所示:你会发现这一阶段的持续时间是8小时。请通过
Hbase
api
写入
数据
,还是直接通过HDFS
写入
数据
?
浏览 3
提问于2015-04-24
得票数 0
2
回答
Flink时间缓冲接收器
、
我正在尝试编写一个Flink应用程序,它从Kafka中读取事件,从MySQL中丰富这些事件,并将这些
数据
写入
HBase
。我正在RichFlatMapFunction中进行MySQL丰富,现在我正在尝试找出如何最好地
写入
HBase
。我想批量
写入
HBase
,所以我目前正在考虑使用WindowAll,然后使用identity apply (只是为了返回DataStream),然后编写一个HBaseSink,它获取一个记录列表并对
HBase
浏览 0
提问于2019-09-27
得票数 0
2
回答
集成Kafka和
HBase
的最佳实践
、
、
、
、
将Kafka中的流
数据
“导入”到
HBase
中的最佳实践是什么? 使用案例如下:将车辆传感器
数据
流式传输到Kafka。然后,必须对这些传感器
数据
进行转换(即,将protobuf反序列化为人类可读的
数据
),并将其存储在
HBase
中。1)您推荐哪个工具集(如Kafka --> Flume -->
HBase
、Kafka --> Storm -->
HBase
、Kafka --> Spark Streaming --> <e
浏览 1
提问于2015-08-18
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
走进大数据 Hbase
python 数据读取 写入总结
Python写入数据到MySQL
误删HBase数据如何抢救?
Python爬虫数据写入mySQL案例
热门
标签
更多标签
云服务器
ICP备案
实时音视频
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券