kylin 本身提供了如何清理垃圾数据的操作,在这里要注意一点就是元数据的清理要做好备份准备,同时kylin也提供了元数据备份的操作。
【每日一语】这个世界,生活,人本身,都是荒诞的。不要白费心智去猜,去理论,因为无可猜,无可理论。事情并不一定要因为一个理由而发生,发生之后并不一定要达到什么目的。——《老无所依》
1)hbase-env.sh 修改内容(不使用hbase自带zk),可以添加到最后:
我们可以以shell的方式来维护和管理HBase。例如:执行建表语句、执行增删改查操作等等
OpenTSDB是一个分布式、可伸缩的时序数据库,支持高达每秒百万级的写入能力,支持毫秒级精度的数据存储,不需要降精度也可以永久保存数据。其优越的写性能和存储能力,得益于其底层依赖的HBase,HBase采用LSM树结构存储引擎加上分布式的架构,提供了优越的写入能力,底层依赖的完全水平扩展的HDFS提供了优越的存储能力。
查询某个资金账户的信息 get 'dmp:hbase_tags','资金账号' 创建表 create 'emp', 'personal data', 'professional data' 在HBas
今天在使用JavaAPI操作HBase,当删除数据表时,程序运行报了这个异常。
提示:如果直接drop表,会报错:ERROR: Table student is enabled. Disable it first.
Hbase(二):Hbase常用操作 常用shell命令 hbase shell命令 描述 alter 修改列族(column family)模式 count 统计表中行的数量 create 创建表 describe 显示表相关的详细信息 delete 删除指定对象的值(可以为表,行,列对应的值,另外也可以指定时间戳的值) deleteall 删除指定行的所有元素值 disable 使表无效 drop 删除表 enable 使表有效 exists 测试表是否存在 exit 退出hbase shell get
本节在 Windows Docker 安装配置 HBase 接 Windows Docker 安装部署 Hadoop 0. 实验环境 Docker Desktop for Windows Hadoop 2.7.3 HBase 1.1.2 hbase-1.1.2-bin.tar.gz 1. 配置环境 1.1 启动 master 容器 docker start -i master 1.2 将 HBase 复制到 容器内 /home 宿主机: F:-1.1.2-bin.tar.gz Docker 容器:/hom
当误删数据发生时候,不管三七二十一,第一要务是进入hbase shell,执行如下命令:
注意: 在 HBase Shell 中如果按退格键无法删除 , 则需要按 Ctrl + backspace 键
HBase数据模型(1) HBase数据模型(2) 1.0 HBase的特性 Table HBase以表(Table)的方式组织数据,数据存储在表中。 Row/Column 行(Row)
操作 HBase 所用的 jar 包,使用 Maven 导入,引入依赖 hbase-it,pom.xml 文件依赖部分如下:
HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用;
我们知道,数据达到HBase服务端会写WAL-写Memstore,然后定期或满足一定条件时刷写磁盘生成一个HFile文件,随着时间推移生成的HFile会越来越多,将会影响HBase查询性能,同时会对HDFS造成一定影响。因此HBase会定期执行Compaction操作以合并减少HFile数量。
delete操作并不会马上删除数据,只是将对应的数据打上删除标记,只有在数据产生合并时,数据才会被删除。
本篇博客,小菌为大家带来HBase的进阶使用,关于基础入门操作大家可以去阅览小菌之前的博客《HBase的JavaAPI使用–基础篇》。
向user表中插入信息,row key为rk0001,列族info中添加name列标示符,值为zhangsan
Hbase的数据备份策略有: (1)Distcp (2)CopyTable (3)Export/Import (4)Replication (5)Snapshot 下面介绍这几种方式: (一)Distcp(离线备份) 直接备份HDFS数据,备份前需要disable表,在备份完成之前 服务不可用对在线服务类业务不友好 (二)CopyTable(热备) 执行命令前,需要创建表,支持时间区间、row区间,改变表名称,改变列簇名称,指定是否copy删除数据等功能,例如: 三、Export/Import(热备+离线)
Apache Phoenix主要是基于HBase一款软件, 提供了一种全新(SQL)的方式来操作HBase中数据, 从而降低了使用HBase的门槛, 并且 Phoenix提供了各种优化措施
invalidate metadata全量刷新,性能消耗较⼤,主要⽤于hive当中新建数据库或者数据库表的时候来进 ⾏刷新。
我的HBase版本是0.98 首先说明一下,如果用eclipse操作hbase时,如果报Unknown host错误,找不到主机,是因为你没有配IP地址的映射 方法是 找到你的系统盘里面的C:\Windows\System32\drivers\etc下的hosts文件,打开,增加一个映射 加一个映射 192.168.52.140 master 话不多说,直接看代码,注释很详细 import java.io.IOException; import java.util.Arrays; imp
注意:一次只能为一个表的一行数据的一个列,也就是一个单元格添加一个数据,所以直接用shell命令插入数据效率很低,在实际应用中,一般都是利用编程操作数据。
Apache Hive是一个构建于Hadoop(分布式系统基础架构)顶层的数据仓库,注意这里不是数据库。Hive可以看作是用户编程接口,它本身不存储和计算数据;它依赖于HDFS(Hadoop分布式文件系统)和MapReduce(一种编程模型,映射与化简;用于大数据并行运算)。其对HDFS的操作类似于SQL—名为HQL,它提供了丰富的SQL查询方式来分析存储在HDFS中的数据;HQL经过编译转为MapReduce作业后通过自己的SQL 去查询分析需要的内容;这样一来,即使不熟悉MapReduce 的用户也可以很方便地利用SQL 语言查询、汇总、分析数据。而MapReduce开发人员可以把己写的mapper 和reducer 作为插件来支持Hive 做更复杂的数据分析。
Hbase(五): JavaApi操作Hbase 依赖 <dependencies> <dependency> <groupId>org.apache.hbase</groupId> <artifactId>hbase-client</artifactId> <version>0.98.17-hadoop2</version> </dependency> <dependency> <groupId>org.apache.
HBase: NoSQL数据库,基于HDFS的分布式数据库,理论上支持无限横向扩展, HBase由HMaster与RegionServer组成,HMaster负责协调调度RegionServer进行数据处理,RegionServer负责数据的增删改查操作,RegionServer由多台分布在DataNode的组成,可以有多个。由HMaster负责RegionServer的调度情况,当RegionServer出现异常情况,HMaster进行对MetaRegionServer中的元数据进行更新管理。 当HBase中表的数据不断变大时,表中数据会进行Region分区,分为Region1,Region2...等,RegionServer1负责Region1,RegionServer2负责Region2等;每个RegionServer负责哪个Region的数据区由MetaRegionServer管理,MetaRegionServer运行在多个RegionServer中的任意一个。 HBase数据存储在HDFS上的存储也是按照层级来管理的,不同的库对应不同的目录,库下不同的表亦对应不同的目录,表下不同的Region对应不同的目录,Region下存放这HBase上的数据,HBase的数据是经过特殊处理的,所以直接看不到数据内容 HMaster支持HA高可用,所以在HBase集群对应的HMaster和RegionServer都启动后,在其他的RegonServer上启动HMaster,则该HMaster为StandBy,第一次启动的为Active。 HBase底层接口处理起来会比较吃力,一般处理方式是应用其他工具进行处理,如Flume,Sqoop MySQL与Hive的区别 MySQL:数据存储会受到限制,可以增删改查数据 Hive:1. 只能进行查询数据,不能进行该数据,可以根据查询结果进行建表存储数据 2. 基于HDFS,支持分布式存储,可以无限扩容 3. 基于MapReduce,支持大数据运算 HBase与MySQL的区别 MySQL:行式存储,适合处理联机事务 HBase:列式存储,适合处理对单列数据(列族归类的数据)进行快缩索引查询 HBase与Hive的区别 HBase:数据库,数据分布式存储在HDFS上的DataNode节点上,根据对数据进行增删改查等。 Hive:数据仓库,数据存储在HDFS上,与DataNodata 关系不大,管理历史数据,数据量会非常庞大,每天都会进来大量数据,不能进行更新删除操作, HBase概念 HMaster: 协调管理RegionServer服务状态及元数据管理 RegionServer: 负责对数据表的增删改差操作,主要负责单个Region的数据管理 RegionData:数据块 MetaRegionServer: 对RegionSever上对应的Region数据块进行索引管理 database 数据库 table: 数据表,定义表时需要指定列族,也可以再表建立后进行列族的管理 RowKey:行键,表示一行数据,一行数据中包含列族定义的东西, ColumnFamily: 列族,对业务进行分类后,可以根据业务对数据进行分类,把业务类似的一类数据分为一个列族,不同的业务可以分为不同的列族。分列族的主要目的是方便后期对数据的高速索引. CELL: 数据单元,保存单个KV字段. 运行逻辑: HMaster协调管理RegionServe,RegionServer主要负责处理Region数据块的处理,MetaRegionServer管理RegionServer对应Region数据的元数据信息。RegionServer服务异常时,HMaster进行元数据迁移,保证对Region数据的管理由对应的RegionServer来管理。 MetaRegionServer管理的元数据信息保存在HDFS上。 Client进行数据处
前面我们讲过HBase的拆分,其实他们俩是一对的,拆分-合并!本期就给大家带来HBase的合并的小技巧。无论是在大数据开发的学习中还是其他的学习,小技巧都能够在我们的学习路上带来很多实用的帮助。
一、 准备环境 Java-- jdk-8u121-linux-x64.tar.gz Hadoop--hadoop-2.7.4.tar.gz (jdk1.7会报错) Hbase-- hbase-1.2.0-bin.tar.gz Zookeeper-- zookeeper-3.4.5.tar.gz 本系列教程所有jar包,请关注微信公众号 :Spark高级玩法,输入software获取。 Centos 6.5是本文采用的操作系统 二, 安装Zookeeper Zookeeper的单机版安装很简单。主要是配置数据
本文的HBase安装是在Hadoop已经安装好的基础上实现的,所以之前要导出JAVA_HOME、HADOOP_HOME( 单机模式不需要,伪分布式模式和分布式模式需要)等环境变量以及配置好SSH互信等。 0 公共配置 导出HBase的环境变量
在主节点使用命令:systemctl stop cloudera-scm-server 停止服务
status 查看系统状态 hbase(main):010:0> status 1 active master, 0 backup masters, 4 servers, 0 dead, 6.5000 average load version 查看版本号 hbase(main):011:0> version 1.2.0-cdh5.7.2, rUnknown, Fri Jul 22 12:20:40 PDT 2016 table_help 查看提示信息 hbase(main):012:0> table_hel
进入hbase shell console $HBASE_HOME/bin/hbase shell 如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户 hbase(main)> whoami 表的管理 1)查看有哪些表 hbase(main)> list
scan的用法很多,参数,过滤条件可以很多,各种组合, 在此不列举过多的例子,参考 help 'scan'
在这篇文章中,我们看一下 HBase Java 客户端 API 如何使用。HBase 用 Java 编写,并提供 Java API 与之通信。客户端 API 提供了DDL(数据定义语言)和DML(数据操作语言)语义,这与我们在关系数据库中的语义非常相似。因此,我们学习一下如何使用 HBase 的 Java 客户端 API 对 HBase 表进行 CRUD 操作。
在业务中,我需要给每个用户保存1w条浏览记录,之后每一次的返回值都要和历史记录做一个去重,即保证用户不会重复看到同一篇文章.
Java API操作 1、导jar包 导入开发包。 将hbase安装包中lib下所有jar包导入java项目。 2、API java类 HBase数据模型 HBaseAdmin 数据库(DataBase) HBaseConfiguration HTable 表(Table) HTableDescriptor 列族(Column Family) Put 列修饰符(Column Qualifier) Get Scanner 1.HBaseAdmin 提供了一个接口来管理HBase数据库的表信息
Hbase自带有线程安全的连接池,踏允许多个线程共享和重用已经打开的连接。这对于多线程的应用是非常有用的。当一个线程申请一个连接,它将获得一个租赁凭证,在此期间,这个线程单独享有这个连接。当这个线程使用完该连接之后,它将该连接归还给连接池以便其他的线程可以使用
使用普通用户登陆 MySQL 服务器,你可能需要特定的权限来创建或者删除 MySQL 数据库,所以我们这边使用 root 用户登录,root 用户拥有最高权限。
本文介绍了HBase中Compaction的来源,主要涉及了HBase的RegionServer中的compact进程,以及Compaction如何通过HBase的Store来对数据进行清理和整理。同时,本文还介绍了HBase中两种Compaction的操作过程,以及它们的区别和联系。通过本文的介绍,读者可以更好的理解HBase中的Compaction,并更好的管理和维护HBase的数据。
本次的小DEMO,我们沿用之前的订单数据集。我们将使用Phoenix来创建表,并进行数据增删改查操作。
使用 mysqladmin 删除数据库 使用普通用户登陆mysql服务器,你可能需要特定的权限来创建或者删除 MySQL 数据库。 所以我们这边使用root用户登录,root用户拥有最高权限,可以使用 mysql mysqladmin 命令来创建数据库。 在删除数据库过程中,务必要十分谨慎,因为在执行删除命令后,所有数据将会消失。 以下实例删除数据库test(该数据库在前一章节已创建): [root@host]# mysqladmin -u root -p drop test password:*****
领取专属 10元无门槛券
手把手带您无忧上云