1、整合Phoenix

1.1、Phoenix简介

1.1.1、Phoenix定义

Phoenix是HBase的开源SQL皮肤。可以使用标准JDBC API代替HBase客户端API来创建表,插入数据和查询HBase数据。

1.1.2、Phoenix特点

  1. 容易集成:如Spark,Hive,Pig,Flume和Map Reduce;
  2. 操作简单:DML命令以及通过DDL命令创建和操作表和版本化增量更改;
  3. 支持HBase二级索引创建。

1.1.3、Phoenix架构

1.2、Phoenix快速入门

1.2.1、安装

  1. 官网地址
http://phoenix.apache.org/
  1. Phoenix部署
  • 上传并解压tar包
[song@hadoop102 module]$ tar -zxvf apache-phoenix-5.0.0-HBase-2.0-bin.tar.gz -C /opt/module/
[song@hadoop102 module]$ mv apache-phoenix-5.0.0-HBase-2.0-bin phoenix
  • 复制server包并拷贝到各个节点的hbase/lib
[song@hadoop102 module]$ cd /opt/module/phoenix/
[song@hadoop102 phoenix]$ cp /opt/module/phoenix/phoenix-5.0.0-HBase-2.0-server.jar /opt/module/hbase/lib/
[song@hadoop102 phoenix]$ xsync /opt/module/hbase/lib/phoenix-5.0.0-HBase-2.0-server.jar
  • 配置环境变量
#phoenix
export PHOENIX_HOME=/opt/module/phoenix
export PHOENIX_CLASSPATH=$PHOENIX_HOME
export PATH=$PATH:$PHOENIX_HOME/bin
  • 重启HBase
[song@hadoop102 ~]$ stop-hbase.sh
[song@hadoop102 ~]$ start-hbase.sh
  • 连接Phoenix
[song@hadoop101 phoenix]$ /opt/module/phoenix/bin/sqlline.py hadoop102,hadoop103,hadoop104:2181

1.2.2、Phoenix Shell操作

1.2.2.1、schema的操作
  1. 创建schema
    默认情况下,在phoenix中不能直接创建schema。需要将如下的参数添加到Hbase中conf目录下的hbase-site.xml 和 phoenix中bin目录下的 hbase-site.xml中
   <property><name>phoenix.schema.isNamespaceMappingEnabled</name><value>true</value></property>

重新启动Hbase和连接phoenix客户端.

[song@hadoop102 ~]$ stop-hbase.sh
[song@hadoop102 ~]$ start-hbase.sh
[song@hadoop102 ~]$ /opt/module/phoenix/bin/sqlline.py hadoop102,hadoop103,hadoop104:2181

创建schema

create schema bigdata;

注意:在phoenix中,schema名,表名,字段名等会自动转换为大写,若要小写,使用双引号,如"student"。

1.2.2.2、表的操作
  1. 显示所有表
!table 或 !tables
  1. 创建表
    直接指定单个列作为RowKey
CREATE TABLE IF NOT EXISTS student(
id VARCHAR primary key,
name VARCHAR,
addr VARCHAR);

指定多个列的联合作为RowKey

CREATE TABLE IF NOT EXISTS us_population (
State CHAR(2) NOT NULL,
City VARCHAR NOT NULL,
Population BIGINT
CONSTRAINT my_pk PRIMARY KEY (state, city));
  1. 插入数据
upsert into student values('1001','zhangsan','beijing');
  1. 查询记录
select * from student;
select * from student where id='1001';
  1. 删除记录
delete from student where id='1001';
  1. 删除表
drop table student;
  1. 退出命令行
!quit
1.2.2.3、表的映射
  1. 表的关系
    默认情况下,直接在HBase中创建的表,通过Phoenix是查看不到的。如果要在Phoenix中操作直接在HBase中创建的表,则需要在Phoenix中进行表的映射。映射方式有两种:视图映射和表映射。
  2. 命令行中创建表test
    HBase 中test的表结构如下,两个列族info1、info2。
Rowkey   info1   info2
id  name    address

启动HBase Shell

[song@hadoop102 ~]$ /opt/module/hbase/bin/hbase shell

创建HBase表test

hbase(main):001:0> create 'test','info1','info2'
  1. 视图映射
    Phoenix创建的视图是只读的,所以只能用来做查询,无法通过视图对源数据进行修改等操作。在phoenix中创建关联test表的视图
0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> create view "test"(id varchar primary key,"info1"."name" varchar, "info2"."address" varchar);

删除视图

0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> drop view "test";
  1. 表映射
    使用Apache Phoenix创建对HBase的表映射,有两种方法:
  • HBase中不存在表时,可以直接使用create table指令创建需要的表,系统将会自动在Phoenix和HBase中创建person_infomation的表,并会根据指令内的参数对表结构进行初始化。
  • 当HBase中已经存在表时,可以以类似创建视图的方式创建关联表,只需要将create view改为create table即可。
0: jdbc:phoenix:hadoop101,hadoop102,hadoop103> create table "test"(id varchar primary key,"info1"."name" varchar, "info2"."address" varchar) column_encoded_bytes=0;
1.2.2.4、表映射中数值类型的问题

Hbase中存储数值类型的值(如int,long等)会按照正常数字的补码进行存储. 而phoenix对数字的存储做了特殊的处理. phoenix 为了解决遇到正负数同时存在时,导致负数排到了正数的后面(负数高位为1,正数高位为0,字典序0 < 1)的问题。 phoenix在存储数字时会对高位进行转换.原来为1,转换为0, 原来为0,转换为1.
因此,如果hbase表中的数据的写是由phoenix写入的,不会出现问题,因为对数字的编解码都是phoenix来负责。如果hbase表中的数据不是由phoenix写入的,数字的编码由hbase负责. 而phoenix读数据时要对数字进行解码。 因为编解码方式不一致。导致数字出错.

  1. 在hbase中创建表,并插入数值类型的数据
hbase(main):001:0> create 'person','info'
hbase(main):001:0> put 'person','1001', 'info:salary',Bytes.toBytes(123456)

注意: 如果要插入数字类型,需要通过Bytes.toBytes(123456)来实现。

  1. 在phoenix中创建映射表并查询数据
create table "person"(id varchar primary key,"info"."salary" integer )
column_encoded_bytes=0;
select * from "person"

会发现数字显示有问题

  1. 解决办法:
  • 在phoenix中创建表时使用无符号的数值类型. unsigned_long
  • create table “person”(id varchar primary key,“info”.“salary” unsigned_long ) column_encoded_bytes=0;

1.2.3、Phoenix Shell操作

1.2.3.1、Thin Client
  1. 启动query server
[song@hadoop102 ~]$ queryserver.py start
  1. 创建项目并导入依赖
<dependencies><dependency><groupId>org.apache.phoenix</groupId><artifactId>phoenix-queryserver-client</artifactId><version>5.0.0-HBase-2.0</version></dependency>
</dependencies>
  1. 编写代码
public class PhoenixTest {public static void main(String[] args) throws SQLException {String connectionUrl = ThinClientUtil.getConnectionUrl("hadoop102", 8765);Connection connection = DriverManager.getConnection(connectionUrl);PreparedStatement preparedStatement = connection.prepareStatement("select * from student");ResultSet resultSet = preparedStatement.executeQuery();while (resultSet.next()) {System.out.println(resultSet.getString(1) + "\t" + resultSet.getString(2));}//关闭connection.close();
}
}
1.2.3.2、Thick Client
  1. 在pom中加入依赖
<dependencies><dependency><groupId>org.apache.phoenix</groupId><artifactId>phoenix-core</artifactId><version>5.0.0-HBase-2.0</version><exclusions><exclusion><groupId>org.glassfish</groupId><artifactId>javax.el</artifactId></exclusion></exclusions></dependency><dependency><groupId>org.glassfish</groupId><artifactId>javax.el</artifactId><version>3.0.1-b06</version></dependency>
</dependencies>
  1. 编写代码
public class TestThick {public static void main(String[] args) throws SQLException {String url = "jdbc:phoenix:hadoop102,hadoop103,hadoop104:2181";Properties props = new Properties();props.put("phoenix.schema.isNamespaceMappingEnabled","true");Connection connection = DriverManager.getConnection(url,props);PreparedStatement ps = connection.prepareStatement("select * from \"test\"");ResultSet rs = ps.executeQuery();while(rs.next()){System.out.println(rs.getString(1)+":" +rs.getString(2));}}
}
1.2.3.3、Phoenix二级索引
1.2.3.3.1、二级索引配置文件
  1. 添加如下配置到HBase的HRegionserver节点的hbase-site.xml
<!-- phoenix regionserver 配置参数-->
<property><name>hbase.regionserver.wal.codec</name><value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>
</property><property><name>hbase.region.server.rpc.scheduler.factory.class</name><value>org.apache.hadoop.hbase.ipc.PhoenixRpcSchedulerFactory</value><description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description>
</property><property><name>hbase.rpc.controllerfactory.class</name><value>org.apache.hadoop.hbase.ipc.controller.ServerRpcControllerFactory</value><description>Factory to create the Phoenix RPC Scheduler that uses separate queues for index and metadata updates</description>
</property>
1.2.3.3.2、全局二级索引

Global Index是默认的索引格式,创建全局索引时,会在HBase中建立一张新表。也就是说索引数据和数据表是存放在不同的表中的,因此全局索引适用于多读少写的业务场景。

写数据的时候会消耗大量开销,因为索引表也要更新,而索引表是分布在不同的数据节点上的,跨节点的数据传输带来了较大的性能消耗。
在读数据的时候Phoenix会选择索引表来降低查询消耗的时间。

  1. 创建单个字段的全局索引
CREATE INDEX my_index ON my_table (my_col);


如果想查询的字段不是索引字段的话索引表不会被使用,也就是说不会带来查询速度的提升。

  1. 创建携带其他字段的全局索引
CREATE INDEX my_index ON my_table (v1) INCLUDE (v2);

1.2.3.3.3、本地二级索引

Local Index适用于写操作频繁的场景。索引数据和数据表的数据是存放在同一张表中(且是同一个Region),避免了在写操作的时候往不同服务器的索引表中写索引带来的额外开销。

CREATE LOCAL INDEX my_index ON my_table (my_column);

2、与Hive的集成

2.1、HBase与Hive的对比

  1. Hive
  • 数据分析工具
    Hive的本质其实就相当于将HDFS中已经存储的文件在Mysql中做了一个双射关系,以方便使用HQL去管理查询。
  • 用于数据分析、清洗
    Hive适用于离线的数据分析和清洗,延迟较高。
  • 基于HDFS、MapReduce
    Hive存储的数据依旧在DataNode上,编写的HQL语句终将是转换为MapReduce代码执行。
  1. HBase
  • 数据库
    是一种面向列族存储的非关系型数据库。
  • 用于存储结构化和非结构化的数据
    适用于单表非关系型数据的存储,不适合做关联查询,类似JOIN等操作。
  • 基于HDFS
    数据持久化存储的体现形式是HFile,存放于DataNode中,被ResionServer以region的形式进行管理。
  • 延迟较低,接入在线业务使用
    面对大量的企业数据,HBase可以直线单表大量数据的存储,同时提供了高效的数据访问速度。

2.2、HBase与Hive集成使用

在hive-site.xml中添加zookeeper的属性,如下:

 <property><name>hive.zookeeper.quorum</name><value>hadoop102,hadoop103,hadoop104</value></property><property><name>hive.zookeeper.client.port</name><value>2181</value></property>

2.2.1、案例一

目标:建立Hive表,关联HBase表,插入数据到Hive表的同时能够影响HBase表。
分步实现:

  1. 在Hive中创建表同时关联HBase
CREATE TABLE hive_hbase_emp_table(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

提示:完成之后,可以分别进入Hive和HBase查看,都生成了对应的表

  1. 在Hive中创建临时中间表,用于load文件中的数据
    提示:不能将数据直接load进Hive所关联HBase的那张表中
CREATE TABLE emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
row format delimited fields terminated by '\t';
  1. 向Hive中间表中load数据
hive> load data local inpath '/home/admin/softwares/data/emp.txt' into table emp;
  1. 通过insert命令将中间表中的数据导入到Hive关联Hbase的那张表中
hive> insert into table hive_hbase_emp_table select * from emp;
  1. 查看Hive以及关联的HBase表中是否已经成功的同步插入了数据
Hive:
hive> select * from hive_hbase_emp_table;
HBase:
Hbase> scan 'hbase_emp_table'

2.2.2、案例二

目标:在HBase中已经存储了某一张表hbase_emp_table,然后在Hive中创建一个外部表来关联HBase中的hbase_emp_table这张表,使之可以借助Hive来分析HBase这张表中的数据。
注:该案例2紧跟案例1的脚步,所以完成此案例前,请先完成案例1。
分步实现:

  1. 在Hive中创建外部表
CREATE EXTERNAL TABLE relevance_hbase_emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
STORED BY
'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" =
":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")
TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");
  1. 关联后就可以使用Hive函数进行一些分析操作了
hive (default)> select * from relevance_hbase_emp;

HBase系列从入门到精通(三)相关推荐

  1. HBase系列从入门到精通(一)

    1.HBase简介 1.1.HBase定义 HBase是一种分布式.可扩展.支持海量数据存储的NoSQL数据库. 1.2.HBase数据模型 逻辑上,HBase的数据模型同关系型数据库很类似,数据存储 ...

  2. HBase系列从入门到精通(二)

    1.HBase进阶 1.1.RegionServer 架构 StoreFile 保存实际数据的物理文件,StoreFile以Hfile的形式存储在HDFS上.每个Store会有一个或多个StoreFi ...

  3. C4D致富经典入门到精通(三)

    C4D样条曲线创建 C4D基础界面的介绍与常用快捷键:  C4D致富经典入门到精通(一) C4D父子关系的理解与创建参数几何体与可编辑对象: C4D致富经典入门到精通(二) C4D样条曲线创建 :  ...

  4. Kali Linux 从入门到精通(三)-入侵系统定制

    Kali Linux 从入门到精通(三)-入侵系统定制 定制 网络配置 临时IP地址 dhclient eth0 ifconfig eth0 192.168.11/24 route add defau ...

  5. jQuery 1.3 for Asp.Net、 CSLA.Net 3.6 for Windows 及 MOSS/WSS 一步一步从入门到精通三个系列的目录...

    jQuery for Asp.Net 一步一步从入门到精通(附 jQuery API 彩色大图) CSLA.Net 3.6 for Windows (C# 2008)一步一步从入门到精通 MOSS/W ...

  6. MyBatis从入门到精通(三):MyBatis XML方式的基本用法之多表查询

    最近在读刘增辉老师所著的<MyBatis从入门到精通>一书,很有收获,于是将自己学习的过程以博客形式输出,如有错误,欢迎指正,如帮助到你,不胜荣幸! 1. 多表查询 上篇博客中,我们示例的 ...

  7. visual studio 2015 搭建python开发环境,python入门到精通[三]

    在上一篇博客Windows搭建python开发环境,python入门到精通[一]很多园友提到希望使用visual studio 2013/visual studio 2015 python做demo, ...

  8. 全网最全-QCC51xx-QCC30xx(TWS)系列从入门到精通开发教程汇总(持续更新中)

    详细记录分析QCC51XX和QCC30XX系列,sdk解析,帮助你快速部署开发项目.教程没完结前,不定时持续更新,包括新发布文章和对已发布的补充更新. 本系列以3040为例,其他QCC5181,QCC ...

  9. Apache Phoenix系列 | 从入门到精通续集

    如何使用自增ID 在传统关系型数据库中设计主键时,自增ID经常被使用.不仅能够保证主键的唯一,同时也能简化业务层实现.Phoenix怎么使用自增ID,是我们这篇文章的重点. 一.语法说明 1. 创建自 ...

最新文章

  1. 集合处理后,按原先输入的字符串顺序排序
  2. 【GZAdmin】开源BS demo快速搭建
  3. 基础SQL面试题(3)
  4. vs2013中的error c4996的问题
  5. 02-CSS基础与进阶-day10_2018-09-14-20-38-10
  6. 提升语义分割性能的几种方法
  7. 初学Spring Boot
  8. lisp语言cond和if套用_LISP - 决策
  9. 自动驾驶汽车寿命只有四年?
  10. Vista忘记密码如何登录?
  11. github上传文件
  12. 吴恩达发布了大型X光数据集,斯坦福AI诊断部分超越人类 | AAAI 2019
  13. JAVA设计模式之3-抽象工厂模式
  14. 深度可分离卷积vs标准卷积
  15. Java小白 学习笔记(三)——面向对象
  16. 涂涂乐的详细实现之二--UI布局和效果
  17. 国家开放大学 操作系统 行测2这个答案是92分的
  18. dpdk 内核模块 Unknown symbol in module 问题
  19. windows7设置通电自启动_怎么让Windows7系统电脑自动开机?
  20. 鸿蒙系统应用开发初体验(一)

热门文章

  1. 欣赏几个面馆的logo
  2. 深入理解JVM之虚拟机类加载机制
  3. 对应的官方又放出了新的游戏预告
  4. unity ui图片花屏
  5. Netgear wndr3700v2 路由器刷OpenWrt打造全能服务器(六)pptpd服务
  6. Tesseract-ocr c#文字识别简单入门
  7. 职业人生讨人喜欢的27个原则
  8. Stimulsoft Reports.PHP 2022.4.3 Crack
  9. Mac 终端修改 MySQL密码
  10. 键盘win键和alt键功能互换解决办法(亲测实用)