在我的实验室中,HBase存档预先写入日志,即没有删除oldWALs文件,并且oldWALs目录在is中快速增长。
8.1 K 24.4 K /hbase/.hbase-snapshot
0 0 /hbase/.hbck
0 0 /hbase/.tmp
3.6 K 10.7 K /hbase/MasterProcWALs
900.3 M 7.1 G /hbase/WALs
3.4 G 10.3 G /hbase/archive
0 0 /hbase/corrupt
938.7 G 2.
HBase wal变得越来越大。详情如下:
3.2 K 9.6 K /hbase/.hbase-snapshot
0 0 /hbase/.hbck
0 0 /hbase/.tmp
0 0 /hbase/MasterProcWALs
534.2 G 1.6 T /hbase/WALs
400.3 M 1.2 G /hbase/archive
0 0 /hbase/corrupt
267.0 G 796.5 G /hbase/data
42 1
我试图在Mac上运行Hadoop 2的Hbase 0.96.1.1。我跑的时候。/开始-hbase.sh,
开始,主人,登录到..。
但它在那之后就坠毁了。
I checked the log file and this the error message it spat out:
Fri Mar 28 12:49:20 PDT 2014 Starting master on ms12
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
fi
我是一个初学者,我正在尝试使用sbt导入phoenix库来读取spark中的hbase表,但我的build.sbt总是给我错误。 导入sbt项目时出错: [error] stack trace is suppressed; run 'last update' for the full output
[error] stack trace is suppressed; run 'last ssExtractDependencies' for the full output
[error] (update) sbt.librarymanagement.Resolv
我正在尝试从安巴里运行我的hbase主程序,它是started....even,我使用JPS命令来查看主程序是否启动,我可以看到它已经启动了,但是当我试图创建表或列表表时,它显示了异常……
ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet
at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:100)
at org.apache.hadoop.hbase.ipc.FifoRpcS
编辑:我将顶层pom文件中定义的hbase依赖项添加到项目级pom中,现在它可以找到包了。
我有一个scala对象,用于从Spark (1.0.1)中的HBase (0.98.4-hadoop2)表中读取数据。但是,当我尝试导入org.apache.hadoop.hbase.mapreduce.TableInputFormat.时,使用maven编译会导致错误
error: object mapreduce is not a member of package org.apache.hadoop.hbase
代码和相关的pom如下:
import org.apache.hadoop.hbase
我使用带色调的Hbase创建了一些表。重新启动集群后,我不能再打开/创建表(它处于挂起状态)。我还尝试了Hbase shell,但在尝试扫描表时出现以下错误
ERROR: org.apache.hadoop.hbase.NotServingRegionException: Region hbase:meta,,1 is not online
at org.apache.hadoop.hbase.regionserver.HRegionServer.getRegionByEncodedName(HRegionServer.java:2590)
at org.apa