博客
关于我
封装一个简单的HBaseUtil
阅读量:781 次
发布时间:2019-03-23

本文共 2704 字,大约阅读时间需要 9 分钟。

HBase 作为一种面向列族的数据库,与普通数据库存在显著差异,无法直接使用JDBC封装的工具,因此该项目重新封装了专门的 HBase 工具进行使用。本文将详细介绍 HBase 的使用方法。

Maven 依赖

在项目中使用 HBase 时,需要通过 Maven 加入相关依赖。记得根据项目需求更换版本号,可以从以下地址获取:

示例依赖项:

org.apache.hbase
hbase-server
1.4.5
org.apache.hbase
hbase-client
1.4.5

私有属性

在使用 HBase 时,需要声明一些私有属性用于配置和连接管理:

private Configuration hbaseConf;private Connection hbaseConn;private HBaseAdmin admin;

构造方法

构造方法用于初始化连接和管理相关配置。具体实现如下:

public HBaseUtil() {    hbaseConf = HBaseConfiguration.create();    try {        hbaseConn = ConnectionFactory.createConnection();        admin = (HBaseAdmin) hbaseConn.getAdmin();        System.out.println("连接是否已建立:" + !hbaseConn.isClosed());    } catch (IOException e) {        e.printStackTrace();    }}

表格操作

判断是否存在表格

可以通过以下方法检查表格是否存在:

public boolean isExist(String tableNameStr) {    TableName tableName = TableName.valueOf(tableNameStr);    boolean flag = false;    try {        flag = admin.tableExists(tableName);    } catch (IOException e) {        e.printStackTrace();    }    return flag;}

创建表格

创建表格时需要先检查其是否存在,如存在则跳过,否则继续操作:

public void createTable(String tableNameStr, String[] familys) {    if (this.isExist(tableNameStr)) {        System.out.println("表格已存在");        return;    }    TableName tableName = TableName.valueOf(tableNameStr);    HTableDescriptor table = new HTableDescriptor(tableName);    for (String familyStr : familys) {        HColumnDescriptor family = new HColumnDescriptor(familyStr);        table.addFamily(family);    }    try {        admin.createTable(table);    } catch (IOException e) {        e.printStackTrace();    }}

删除表格

删除表格需要先禁用,再删除:

public void dropTable(String tableName) {    try {        admin.disableTable(tableName);        admin.deleteTable(tableName);    } catch (MasterNotRunningException e) {        e.printStackTrace();    } catch (ZooKeeperConnectionException e) {        e.printStackTrace();    } catch (IOException e) {        e.printStackTrace();    }}

数据操作

一条数据的写入

实现单条数据的写入功能:

public void putData(String tableNameStr, Put put) {    TableName tableName = TableName.valueOf(tableNameStr);    Table table;    try {        table = hbaseConn.getTable(tableName);        table.put(put);    } catch (IOException e) {        e.printStackTrace();    }}

多条数据的批量写入

支持批量写入操作:

public void putData(String tableNameStr, List
putList) { TableName tableName = TableName.valueOf(tableNameStr); Table table; try { table = hbaseConn.getTable(tableName); table.put(putList); } catch (IOException e) { e.printStackTrace(); }}

通过以上方法,可以对 HBase 表格进行基本的管理和数据操作。这些方法适合在实际项目中进行定制化开发。

转载地址:http://rejzk.baihongyu.com/

你可能感兴趣的文章
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>