今天在使用JavaAPI操作HBase,当删除数据表时,程序运行报了这个异常。...org.apache.hadoop.hbase.TableNotDisabledException ?
Hbase shell启动命令窗口,然后再Hbase shell中对应的api命令如下。 ? 二.说明 Hbase shell中删除键是空格+Ctrl键。...三.代码 1.封装所有的API package com.sxt.hbase; import java.io.IOException; import java.util.ArrayList; import...java.util.List; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.Cell; import...package com.sxt.hbase; import java.io.IOException; import java.text.SimpleDateFormat; import java.util.ArrayList...; import java.util.List; import java.util.Random; import org.apache.hadoop.conf.Configuration; import
HBase 使用 Java 语言开发,因而 HBase 原生提供了一个 Java 语言客户端。这篇文章介绍 HBase Admin API,包括创建、启用、禁用、删除表等。...如果项目使用 Maven 进行依赖管理,只需添加如下依赖即可以使用 Java 客户端访问 HBase 集群: org.apache.hbase HBASE-13517 hbase-shaded-client 和 hbase-shaded-server 是在无法以其他方式解决依赖冲突的场景下使用的...在没有冲突的情况下,我们应首选:hbase-client 和 hbase-server。...同样,使用 Java API,我们可以调用 Admin 类的 tableExists() 方法来验证表是否存在: public static boolean exists(Admin admin, String
概述 在这篇文章中,我们看一下 HBase Java 客户端 API 如何使用。HBase 用 Java 编写,并提供 Java API 与之通信。...因此,我们学习一下如何使用 HBase 的 Java 客户端 API 对 HBase 表进行 CRUD 操作。 2. Put 使用 Put 向表中插入数据。...客户端 API 可以插入单个 Put 实例,同时也有批量处理操作的高级特性。...Get 下面我们介绍根据客户端 API 查询已存储在 HBase 表中的数据。Table 类的 get() 方法可以从 HBase 表中读取数据。get() 方法需要 Get 类的实例。...Delete 下面我们介绍使用客户端 API 删除已存储数据的方法。Table 类的 delete() 方法可以从 HBase 表中删除数据。delete() 方法需要 Delete 类的实例。
Java API操作 1、导jar包 导入开发包。 将hbase安装包中lib下所有jar包导入java项目。...2、API java类 HBase数据模型 HBaseAdmin 数据库(DataBase) HBaseConfiguration HTable 表(Table) HTableDescriptor 列族...3.HTable 可以用来和HBase表直接通信。此方法对于更新操作来说是非线程安全的。...hbase所有修改数据的操作都保证了行级别的原子性, 试验 一次插入100万条数据。...Scan scan = new Scan(); Filter filter = ... scan.setFilter(filter) 1>Hbase内置器 HBase为筛选数据提供了一组过滤器,通过这个过滤器可以在
HBase版本:1.2.6 1....代码实现 import java.io.IOException; import java.util.List; import org.apache.hadoop.conf.Configuration;...import org.apache.hadoop.hbase.Cell; import org.apache.hadoop.hbase.CellUtil; import org.apache.hadoop.hbase.HBaseConfiguration...import org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.Connection...; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result; import org.apache.hadoop.hbase.client.Scan
HBase相关对Admin操作的的API封装在HBaseAdmin中,封装了HBase常用操作的API 使用方法: pom.xml hbase/hbase-client --> ...; 18 19 /** 20 * author: 龚细军 21 * class-aim: HBase客户端操作API使用 22 */ 23 24 public class HBaseClientDemo.../hbase/hbase-common/0.98.5-hadoop2/hbase-common-0.98.5-hadoop2.jar:/home/gongxijun/.m2/repository/commons-collections...-2.2.3-1.jar:/home/gongxijun/.m2/repository/javax/xml/bind/jaxb-api/2.2.2/jaxb-api-2.2.2.jar:/home/gongxijun
---- HBase版本:1.2.6 1....HBaseUtil.java import java.io.IOException; import java.util.Date; import java.util.List; import org.apache.hadoop.conf.Configuration...org.apache.hadoop.hbase.client.HTable; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Result...org.apache.hadoop.hbase.util.Bytes; import com.aura.hbase.utils.HBasePrintUtil; /** * HBase基础的CRUD...HBasePrintUtil.java package com.aura.hbase.utils; import java.util.List; import org.apache.hadoop.hbase.Cell
import java.io.IOException; import java.io.ByteArrayOutputStream; import java.io.DataOutputStream...; import java.io.ByteArrayInputStream; import java.io.DataInputStream; import java.util.Map; import...java.util.ArrayList; import java.util.List; import org.apache.hadoop.io.Writable; import org.apache.hadoop.io.IntWritable...org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.client.Get; import org.apache.hadoop.hbase.client.Delete...; import org.apache.hadoop.hbase.util.*; import org.apache.hadoop.hbase.KeyValue; import org.apache.hadoop.hbase.util.Writables
一、简述 截至到目前 (2019.04),HBase 有两个主要的版本,分别是 1.x 和 2.x ,两个版本的 Java API 有所不同,1.x 中某些方法在 2.x 中被标识为 @deprecated...完整的代码见本仓库: Java API 1.x Examples Java API 2.x Examples 同时你使用的客户端的版本必须与服务端版本保持一致,如果用 2.x 版本的客户端代码去连接 1...二、Java API 1.x 基本使用 2.1 新建Maven工程,导入项目依赖 要使用 Java API 操作 HBase,需要引入 hbase-client。...API 2.x 基本使用 3.1 新建Maven工程,导入项目依赖 这里选取的 HBase Client 的版本为最新的 2.1.4。...以下为 HBase 2.x 版本 Java API 的使用示例: public class HBaseUtils { private static Connection connection
分布式数据库HBase开发: Java API 管理表 javaAPI获取表的列表 修改表 禁用表,启用表,删除表 前言: 第一关用一个foreach遍历,输出三行代码就行。...第一关要: 第一关答案: package step1; import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf....*; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client.*; import org.apache.hadoop.hbase.util...; import org.apache.hadoop.conf.*; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client....*; import org.apache.hadoop.hbase.io.compress.Compression; import org.apache.hadoop.hbase.util.*; public
同时连接是一个重量级的,推荐一个进程使用一个连接,对 HBase的命令通过连接中的两个属性 Admin 和 Table 来实现。...2.1 单线程创建连接 import java.io.IOException; import java.util.concurrent.CompletableFuture; import org.apache.hadoop.conf.Configuration...; import org.apache.hadoop.hbase.client.AsyncConnection; import org.apache.hadoop.hbase.client.Connection...org.apache.hadoop.hbase.client.Connection; import org.apache.hadoop.hbase.client.ConnectionFactory;...import java.io.IOException; import java.util.concurrent.CompletableFuture; public class HBaseConnect
但是通过JAVA API查询就不是这样的了,下面是chatGPT给出的案例import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.hbase.Cell...;import org.apache.hadoop.hbase.HBaseConfiguration;import org.apache.hadoop.hbase.TableName;import org.apache.hadoop.hbase.client.Connection...;import org.apache.hadoop.hbase.client.Scan;import org.apache.hadoop.hbase.client.Table;import org.apache.hadoop.hbase.filter.Filter...java.io.IOException;public class HBasePrefixScanExample { public static void main(String[] args) throws...} } scanner.close(); table.close(); connection.close(); }}上面的代码用的api
HBase版本:1.2.6 1....常见过滤器API package com.aura.hbase.test; import java.io.IOException; import org.apache.commons.lang.StringUtils...org.apache.hadoop.hbase.TableName; import org.apache.hadoop.hbase.client.Admin; import org.apache.hadoop.hbase.client.Connection...; import org.apache.hadoop.hbase.client.ConnectionFactory; import org.apache.hadoop.hbase.client.Result...org.apache.hadoop.hbase.client.Table; import org.apache.hadoop.hbase.filter.Filter; import org.apache.hadoop.hbase.filter.FilterList
Hbase提供了丰富的Java API,以及线程池操作,下面我用线程池来展示一下使用Java API操作Hbase。 项目结构如下: ?...接口类: /hbase-util/src/com/b510/hbase/util/dao/HbaseDao.java 1 package com.b510.hbase.util.dao; 2 3...import java.util.List; 4 5 import org.apache.hadoop.hbase.client.HTableInterface; 6 7 8 /**.../src/com/b510/hbase/util/dao/impl/HbaseDaoImpl.java 1 package com.b510.hbase.util.dao.impl; 2.../src/com/b510/hbase/util/dao/test/HbaseDaoTest.java 1 package com.b510.hbase.util.dao.test; 2 3 import
启用Hbase 下载hbase,下载.tar.gz文件,不下载src.tar.gz文件 在安装hbase前需要安装java环境,hbase-env.sh文件,可以直接在头行加上 export JAVA_HOME...信息 配值regionserver节点 3.配值hbase-env.sh 配值java_home等前提条件信息 动态更改配置文件,不需要重启服务,直接在shell中 update_config and...Ruby环境,因此您可以使用简单的Ruby脚本来算法计算拆分 hbase(main):021:0> import java.text.SimpleDateFormat hbase(main):022:0...> import java.text.ParsePosition hbase(main):023:0> SimpleDateFormat.new(“yy / MM / dd HH:mm:ss”)。...getTime()=> 1218920189000 走向另一个方向: hbase(main):021:0> import java.util.Date hbase(main):022:0> Date.new
#解压 mv hbase-1.3.2 /usr/local/hbase 配置hbase-site.xml cd /usr/local/hbase/conf vi hbase-site.xml hbase/conf echo $JAVA_HOME #若没有安装jdk可百度(偷懒) vi hbase-env.sh #添加和你输出的JAVA_HOME一致 export...JAVA_HOME=/usr/local/java 运行测试 cd /usr/local/hbase/bin ....org.apache.hadoop.hbase.client.*; import org.apache.hadoop.hbase.util.Bytes; import java.io.IOException...package ex3; import java.io.IOException; public class Client { public static void main(String[
二.步骤 将结果写会到hbase中去。 ...表 rowkey cell存放文本 * 结果输出到 hbase表 * */ public static void main(String[] args)...System.out.println("success~~"); } } } 2.2 Mapper函数(和正常的Mapper没啥区别) import java.io.IOException...context.write(new Text(w), new IntWritable(1)); } } } 2.3 Reduce函数(主要是把Put对象写出去) import java.io.IOException...; import org.apache.hadoop.hbase.client.Put; import org.apache.hadoop.hbase.io.ImmutableBytesWritable
在之前的文章hdfs API学习中,我们已经能够成功连接hdfs,并对文件进行读写。hbase数据库的操作也非常简单,但你需要先大致了解一下hbase的架构。...hbase架构 hbase是基于列存储的nosql数据库,hbase官方参考指南中有很详细的使用说明。个人理解列存储的意思就是物理数据存储不是按行划分,而是按列划分。...hbase简单api调用 hbase的功能相当丰富,运维也相对比较复杂,下面是对hbase的简单调用,仅供参考学习。如果想了解更多深入的内容,可以参考上边提到的官方参考指南。...; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client.*; import java.io.IOException...; import java.util.List; import java.util.stream.Collectors; /** * @author jiangmitiao */ public class
Hbase是基于HDFS的NOsql数据库,它很多地方跟数据库差不多,也有很多不同的地方。这里就不一一列举了,不过Hbase有个版本控制的特性,这个特性在很多场景下都会发挥很大的作用。...本篇就介绍下基于Shell和Java API的Hbase多版本的读写。 为了更好的理解多版本,我们可以把普通的数据存储理解成二维空间,提供了rowkey,列族,列几个存储的维度。...更多参数信息,可以查看HColumnDescriptor的Java Doc 修改版本数 hbase(main):005:0> alter 'xingoo:test_v',NAME=>'v',VERSIONS...> get 't1', 'r1', {COLUMN => 'c1', TIMERANGE => [ts1, ts2], VERSIONS => 4} 基于Java的读写 首先,需要创建工具类,包含连接的配置...教程:http://www.yiibai.com/hbase/ 2 hbase官方文档:http://hbase.apache.org/book.html#appendix_contributing_to_documentation