Hive 基本概念

  • 什么是Hive

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

  • 为什么使用Hive

Ø 直接使用hadoop所面临的问题
人员学习成本太高
项目周期要求太短
MapReduce实现复杂查询逻辑开发难度太大
Ø 为什么要使用Hive
操作接口采用类SQL语法,提供快速开发的能力。
避免了去写MapReduce,减少开发人员的学习成本。
扩展功能很方便。

  • Hive的特点

Ø 可扩展
Hive可以自由的扩展集群的规模,一般情况下不需要重启服务。
Ø 延展性
Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。
Ø 容错
良好的容错性,节点出现问题SQL仍可完成执行。

  • Hive架构

Jobtracker是hadoop1.x中的组件,它的功能相当于: Resourcemanager+AppMaster

TaskTracker 相当于: Nodemanager + yarnchild

  • 基本组成

Ø 用户接口:包括 CLI、JDBC/ODBC、WebGUI。
Ø 元数据存储:通常是存储在关系数据库如 mysql , derby中。
Ø 解释器、编译器、优化器、执行器。

  • 各组件的基本功能

Ø 用户接口主要由三个:CLI、JDBC/ODBC和WebGUI。其中,CLI为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive。
Ø 元数据存储:Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。
Ø 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。

  • Hive与Hadoop的关系
  • Hive与传统数据库对比
  • 注意:hive具有sql数据库的外表但应用场景完全不同hive只适合用来做批量数据统计分析
  • Hive的数据存储

1、Hive中所有的数据都存储在 HDFS 中,没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,RCFILE等)
2、只需要在创建表的时候告诉 Hive 数据中的列分隔符和行分隔符,Hive 就可以解析数据。
3、Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket。
db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹
table:在hdfs中表现所属db目录下一个文件夹
external table:外部表, 与table类似,不过其数据存放位置可以在任意指定路径
普通表: 删除表后, hdfs上的文件都删了
External外部表删除后, hdfs上的文件没有删除, 只是把文件删除了
partition:在hdfs中表现为table目录下的子目录bucket:桶, 在hdfs中表现为同一个表目录下根据hash散列之后的多个文件, 会根据不同的文件把数据放到不同的文件中


下面来安装 HIVE 吧!

Hive 学习环境 搭建

环境说明:

单机版
源数据库 MySQL
系统:CentOS6.7
Hadoop集群:3 台

  • 【mini61-192.168.25.201】NameNode
  • 【mini62-192.168.25.202】DataNode
  • 【mini62-192.168.25.203】DataNode

安装 MySQL:

可参考:

CentOS6.5安装MySQL5.7详细教程 - $nail - 博客园​www.cnblogs.com

CentOS6.5安装MySQL5.5​blog.csdn.net

本次MySQL安装在主机:【mini62】中

注意:删除匿名用户,允许用户远程连接

mysql>use mysql;
mysql> grant all privileges on *.* to root@'%' identified by '123456';
mysql>GRANT ALL PRIVILEGES ON *.* TO 'root'@'%'WITH GRANT OPTION ;
mysql>flush privileges;

安装 Hive

参考:

Hive安装与配置 - Kinginme - 博客园​www.cnblogs.com

官方文档:

Apache Software Foundation​cwiki.apache.org

本次安装 hive1.2.1

  • 下载:

Index of /apache/hive​mirror.bit.edu.cnDownloads​hive.apache.org

  • 使用工具上传 hive 压缩包到 虚拟机
  • 解压

切换 root 用户配置环境变量:

# vi /etc/profile
#增加Hive环境变量
export HIVE_HOME=/home/hadoop/app/hive  # 你解压后 Hive 的目录
export PATH=${HIVE_HOME}/bin:$PATH

刷新环境变量 :source /etc/profile

进入 HIVE_HOME / conf/ 目录:

配置元数据库信息

新建文件:

$vi  hive-site.xml 

添加下面内容:(注意:hive-default.xml.template 配置内容过多,本次新建文件简单配置)

javax.jdo.option.ConnectionUserName 数据库用户名

javax.jdo.option.ConnectionPassword 对应数据库用户密码

javax.jdo.option.ConnectionURL MySQL 地址

<configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://mini62:3306/hive?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore</description></property>
​<property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property>
​<property><name>javax.jdo.option.ConnectionUserName</name><value>root</value><description>username to use against metastore database</description></property>
​<property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value><description>password to use against metastore database</description></property>
</configuration>

问题:

Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar

添加 MySQL 驱动包到 HIVE_HOME/lib 目录下

可到Maven

mysql " mysql-connector-java​mvnrepository.com

MySQL驱动包

启动Hive

如配置了环境变量可直接执行 hive 命令启动

如果没有配置环境变量,在 HIVE_HOME/bin 目录下执行 hive 启动

启动报错:

[ERROR] Terminal initialization failed; falling back to unsupported
java.lang.IncompatibleClassChangeError: Found class jline.Terminal, but interface was expected

Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 HADOOP_HOME /share/hadoop/yarn/lib/jline-0.9.94.jar

启动完成:

大数据专栏​zhuanlan.zhihu.com

微信公众号:大数据专栏

hadoop hive集群_大数据专栏 | Hive 安装初体验相关推荐

  1. spark 并行处理_如何使用Spark集群并行处理大数据

    spark 并行处理 by Hari Santanam 通过Hari Santanam 如何使用Spark集群并行处理大数据 (How to use Spark clusters for parall ...

  2. python自动化部署hadoop集群_大数据集群的自动化运维实现思路

    原标题:大数据集群的自动化运维实现思路 | 作者简介 王晓伟 知数堂<大数据实战就业>课程讲师 六年大数据相关工作经验 清华大学软件工程硕士 曾就职于网易.搜狗等互联网企业 从事大数据及数 ...

  3. hadoop小型集群_小型Hadoop集群的Ganglia配置和一些故障排除

    hadoop小型集群 Ganglia是一个针对大型集群的开源,可扩展且分布式的监视系统. 它收集,汇总并提供数十种与计算机相关的指标(例如CPU,内存,存储,网络使用情况)的时序视图. 您可以在UC ...

  4. 大数据之-Hadoop3.x_MapReduce_WordCount案例集群运行---大数据之hadoop3.x工作笔记0093

    然后我们再来看让我们写的那个WordCount的,用java写的这个程序在hadoop的集群上运行. 怎么实现? 我们知道上一节,我们已经可以把我们的WordCount的MapReduce程序,我们自 ...

  5. hive udaf_谈笑间学会大数据初识Hive

    你可以不够优秀,但不要甘于平凡 Hive 是什么呢? hive是基于Hadoop构建的一套数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据:可以将结构化的数 ...

  6. hive集群部署以及beeline和hive

    我们会发现一个奇怪的现象就是 hbase是一条命令可以启动整个集群的,但是hive却不是,这是怎么回事呢? 因为hive只是一个SQL客户端而已. 数据并不在hive中,hive只是帮忙从hdfs-& ...

  7. hadoop hive集群_失眠大数据专家,基于Hadoop不同版本搭建hive集群(附配置文件)

    前言 本教程采用了两种方案 一种是hive-1.21版本,hadoop版本为hadoop2.6.5 还有一种是主要讲基于hadoop3.x hive的搭建 先来第一种 一.本地方式(内嵌derby) ...

  8. 大数据之-Hadoop完全分布式_完全分布式模式下的集群配置---大数据之hadoop工作笔记0034

    然后前面我们准备好了,完全分布式下用的集群环境,下面我们,开始配置hadoop集群 我们这里用hadoop102,hadoop103,hadoop104 这3台机器. 需要hadoop102,103, ...

  9. 大数据之-Hadoop完全分布式_集群时间同步---大数据之hadoop工作笔记0043

    然后我们需要在集群中的所有机器,保持他们的时间是一样的,为什么,? 比如,我们有3台机器, a机器时间是1点 b机器时间是2点 c机器时间是3点 那么如果我们设置了一个任务是要求他1点执行,那么,会出 ...

  10. 大数据之-Hadoop完全分布式_集群群起_同时启动上万台集群机器---大数据之hadoop工作笔记0037

    然后之前我们启动集群中的机器,都是一台一台启动的,很麻烦,现在我们来实现集群群起. 配置步骤上面有,我们跟着做一下. 首先我们进入 cd /opt/module/hadoop-2.7.2/ 进入以后找 ...

最新文章

  1. Caffe源码中io文件分析
  2. 设计模式学习笔记(一)之工厂模式、单例模式
  3. 基于 TensorFlow 的图像识别(R实现)
  4. python语言的整数类型是什么-Python|你必须知道的基本数据类型之一:Number类型...
  5. 用计算机算出90除以6.28,用计算器计算:sin51°30′+ cos49°50′-tan46°10′的值是 .——青夏教育精英家教网——...
  6. JavaWeb:JSP
  7. vue后端框架mysql_springboot + vue 前后端结合·数据库查询
  8. vector和deque的区别?
  9. 串传送指令MOVSB MOVSW
  10. java程序课程总结_Java课程总结报告.pdf
  11. Ubuntu tomcat
  12. 【哈佛商评】好编辑成就内容营销
  13. 软件工程期末复习题库
  14. TCON控制字及TMOD寄存器
  15. 哪个表示经度?哪个表示纬度?是X是经度?还是Y表示经度?
  16. keil写文字怎么会乱码_刚刚!2020福建高考作文题揭晓!你会怎么写?
  17. 举一反三快速学会如何全面超频
  18. 毕业前三年如何拿到好绩效
  19. android金额大小写转换,Java/android 金额 数字转成大写汉子
  20. 【FPGA】时钟信号几种设计方法

热门文章

  1. vs2008打开aspx文件时设计界面死机情况的解决
  2. 2.tcpdump(1)
  3. 40. HTTP 协议(1)
  4. chanlist.php,Nginx+FastCgi+Php 的工作机制
  5. Mybatis中传参包There is no getter for property named 'XXX' in 'c
  6. git 合并指定目录到master
  7. 课时47:魔法方法:定制序列
  8. php 基础 自动类型转换
  9. Struts2学习笔记一之工作原理和struts.xml解析
  10. django form 介绍