环境

hadoop2.7.1+ubuntu 14.04hive 2.0.1集群环境namenode节点:master (hive服务端)datanode 节点:slave1,slave2(hive客户端)hive建立在hadoop的HDFS上,搭建hive前,先需搭建hadoop远程模式:101.201.81.34(Mysql server meta server安装位置)

一、101.201.81.43

该主机上安装好mysql,并且建立一个hive数据库(要开启远程访问)

二、在master上安装hive

1.安装hive

1)在apache官网上下载hive-2.1.0包2)sudo tar -zxvf apache-hive-2.1.0-bin.tar.gz3)sudo cp -R apache-hive-2.1.0-bin /home/cms/hive4)chmod -R 775 /home/cms/hive5)sudo chown -R cms /home/cms/hive

2.修改/etc/profile加入HIVE_HOME的变量

HIVE_HOME/PATH/CLASSPATH我粘贴的是我所有的配置

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64export HADOOP_HOME=$HOME/hadoop-2.7.1export HIVE_HOME=$HOME/hiveexport JRE_HOME=$JAVA_HOME/jreexport CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$HIVE_HOME/lib:$CLASSPATHexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$PATHexport HADOOP_MAPARED_HOME=$HADOOP_HOMEexport HADOOP_COMMON_HOME=$HADOOP_HOMEexport HADOOP_HDFS_HOME=$HADOOP_HOMEexport YARN_HOME=$HADOOP_HOMEexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

source /etc/profile

3.修改hive/conf下的几个template模板并重命名为其他

cp hive-env.sh.template hive-env.sh

cp hive-default.xml.template hive-site.xml

配置hive-env.sh文件,指定HADOOP_HOME安装位置 HADOOP_HOME=$HADOOP_HOME/hadoop-2.7.1

4.修改hive-site.xml文件,指定MySQL数据库驱动、数据库名、用户名及密码,修改的内容如下所示

<property><name>javax.jdo.option.ConnectionURLname><value>jdbc:mysql://101.201.81.34:3306/hive?createDatabaseIfNotExist=truevalue><description>JDBC connect string for a JDBC metastoredescription>property><property><name>javax.jdo.option.ConnectionDriverNamename><value>com.mysql.jdbc.Drivervalue><description>Driver class name for a JDBC metastoredescription>property><property><name>javax.jdo.option.ConnectionUserNamename><value>rootvalue><description>username to use against metastore databasedescription>property><property><name>javax.jdo.option.ConnectionPasswordname><value>adminvalue><description>password to use against metastore databasedescription>property><property>

其中:javax.jdo.option.ConnectionURL参数指定的是Hive连接数据库的连接字符串;

javax.jdo.option.ConnectionDriverName参数指定的是驱动的类入口名称;

javax.jdo.option.ConnectionUserName参数指定了数据库的用户名;javax.jdo.option.ConnectionPassword参数指定了数据库的密码。

5.缓存目录的问题,如果不配置也会出错的

hive.exec.local.scratchdir/opt/hivetmpLocal scratch space for Hive jobs

hive.downloaded.resources.dir/opt/hivetmpTemporary local directory for added resources in the remote file system.

并且需要对目录进行权限设定mkdir -p /opt/hivetmp chmod -R 775 /opt/hivetmp

6.下载mysql-connector-java-5.1.30-bin.jar文件,并放到$HIVE_HOME/lib目录下

可以从Mysql的官方网站下载,但是记得一定要解压呀,下载的是一个tar.gz文件,解压后为jar文件

7.hive表存储在在HDFS中的/user/hive/warehouse中

三、slave2建立hive客户端

1.将master上的整个hive目录移至slave2上scp -r hive slave2:/home/cms注意要关闭防火墙sudo ufw disable2.修改slave2下的hive-site配置文件,内容如下:

<configuration>

<property><name>hive.metastore.urisname><value>thrift://master:9083value><description>Thrift uri for the remote metastore. Used by metastore client to connect to remote metastore.description>property>

<property><name>hive.metastore.warehouse.dirname><value>hdfs://hive/warehousevalue>property>configuration>

修改/etc/profile,与master配置一致

四、启动

1.进入之前要初始化数据库(master节点)

schematool -initSchema -dbType mysql

2.hive启动

cms@master:~$ schematool -initSchema -dbType mysqlSLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in [jar:file:/usr/local/hive/lib/log4j-slf4j-impl-2.4.1.jar!/org/slf4j/impl/StaticLoggerBinder.class]SLF4J: Found binding in 1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]Metastore connection URL: jdbc:mysql://101.201.81.34:3306/hive?createDatabaseIfNotExist=trueMetastore Connection Driver : com.mysql.jdbc.DriverMetastore connection User: rootStarting metastore schema initialization to 2.1.0Initialization script hive-schema-2.1.0.mysql.sqlInitialization script completedschemaTool completed```2.hive启动要启动metastore服务在master上执行hive --service metastore &[cms@master ~]$ jps10288 RunJar  #多了一个进程9365 NameNode9670 SecondaryNameNode11096 Jps9944 NodeManager9838 ResourceManager9471 DataNod

3.测试hive shell(服务端,客户端都可)

hiveshow databases;show tables;
查看hive表dfs -ls /user/hive/warehouse

点赞和转发是最大的支持~

hadoop 开启防火墙_hadoop上搭建hive相关推荐

  1. hadoop 开启防火墙_Hadoop部署一Hadoop安装

    哈喽,同学们好,继上篇文章<Hadoop部署一jdk与MySQL>,我们安装好了jdk以及MySQL.我们现在开始安装部署Hadoop,开启Hadoop之旅. 一.下载Hadoop安装包 ...

  2. eclipse远程连接hadoop_hadoop上搭建hive

    环境 hadoop2.7.1+ubuntu 14.04 hive 2.0.1 集群环境 namenode节点:master (hive服务端) datanode 节点:slave1,slave2(hi ...

  3. 内嵌模式搭建Hive

    在此之前已经搭建好了一个三台机器的hadoop集群:https://blog.csdn.net/QYHuiiQ/article/details/123055389?spm=1001.2014.3001 ...

  4. 高可用(HA)Hadoop搭建Hive on Spark

    高可用(HA)Hadoop搭建Hive on Spark 本文只介绍hive on spark搭建,Hadoop高可用(HA)请自行操作, 安装HIVE 1. 解压hive tar -zxvf apa ...

  5. 基于Ubuntu Hadoop的群集搭建Hive

    Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库.前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集. 1.安装MySQL 1.1安装MySQL ...

  6. 【mongodb环境】在ubuntu上搭建mongodb,并且开启远程连接

    [mongodb环境]在ubuntu上搭建mongodb,并且开启远程连接 标签(空格分隔): mongodb 参考资料 mongodb 官方文档 安装mongodb 第一步:设置 public ke ...

  7. CentOS 7上搭建Spark 3.0.1 + Hadoop 3.2.1分布式集群

    CentOS 7上搭建Spark3.0.1+ Hadoop3.2.1分布式集群 VMWare 安装CentOS 7 使用Xshell连接虚拟机 集群设置 安装JDK 1.8 SSH 免密登陆 安装ha ...

  8. 在多台机器上搭建Hadoop的分布式环境

    2019独角兽企业重金招聘Python工程师标准>>> 分布式环境搭建之环境介绍 之前我们已经介绍了如何在单机上搭建伪分布式的Hadoop环境,而在实际情况中,肯定都是多机器多节点的 ...

  9. 一、史上最强hadoop分布式集群的搭建

    史上最强hadoop分布式集群的搭建 @Author:by Runsen @data:2020-02-23 原创文章,禁止转载 人生最重要的不是所站的位置,而是内心所朝的方向.只要我在每篇博文中写得自 ...

最新文章

  1. 图解Oracle 12c 安装示例数据库
  2. [云炬创业学笔记]第三章商业创意的发掘与评估测试2
  3. 隐私安全的必答题,网易云信如何解?
  4. 核心组件:IRule
  5. 基于Dapper的开源Lambda扩展,且支持分库分表自动生成实体之基础
  6. 书摘---创业36条军规1:创业是怎么回事
  7. Mysql-GTID
  8. Python高级编程阅读笔记
  9. 关于新手的一个bug,pycharm和IDea的ctrl+C和ctrl+V不起作用
  10. 高中电子技术——三极管的放大特性和开关特性
  11. Javascript位置 body之前、后执行顺序
  12. 让OSX terminal更出彩
  13. java复习即基础知识点 思维导图
  14. word文档保护密码忘 了,怎么取消格式和编辑保护
  15. 大数据AI Notebook产品介绍和对比
  16. 巨头发力,社区电子商务发展加速
  17. 刘鹏:与聪明人一起做精彩的事!那么,谁是聪明人?
  18. typora导出word指定样式_Word长文档排版以写论文为例
  19. 招商银行信用卡中心18秋招题解
  20. 高数巨占座问题(c语言)

热门文章

  1. 我的世界java什么时候打折_十周年特别纪念!微软《我的世界》游戏全平台最高折扣50% - IT之家...
  2. 调试 高通_高通平台调整通话音量
  3. java单例模式代码vol_单例模式--java代码实现
  4. mysql数据库5.7配置文件_mysql数据库5.7版本部署
  5. RabbitMq、ActiveMq、ZeroMq、kafka比较
  6. mysql处理重复数据
  7. MySQL 瓶颈分析及优化
  8. executable file and DLL
  9. 洛谷P1879 [USACO06NOV]玉米田Corn Fields
  10. VS2005代码格式化