2.4其它整合

2.4.1Hive整合Spark

 Spark整合hive,需要将hive_home下的conf下的hive_site.xml放到spark_home下的conf目录下。(3台服务器都做相同的配置)
[root@bigdata2 spark-2.3.0-bin-hadoop2.7]# cd $HIVE_HOME/conf
[root@bigdata2 conf]# cp hive-site.xml $SPARK_HOME/conf

如果想使用./spark-sql 以yarn的方式运行,需要将mysql-connector-java-5.1.38.jar 放到$SPARK_HOME/jars下面

2.4.2 Hive整合HBASE

(1)修改hive-site.xml文件,添加配置属性(zookeeper的地址)

<property><name>hbase.zookeeper.quorum</name>           <value>bigdata2:2181,bigdata3:2181,bigdata4:2181,bigdata5:2181,bigdata6:2181</value>
</property>

(2)引入hbase的依赖包
将hbase安装包目录下的lib文件夹下的包导入到hive的环境变量中
在hive-env.sh文件中添加:

export HIVE_CLASSPATH=$HIVE_CLASSPATH:$HBASE_HOME/lib

将上面的配置同步到另外2台机器中

2.5连接方式

2.5.1Cli连接

2.5.2HiveServer2/beeline
关于beeline的更多使用,可以参考:https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients (里面介绍了更加详细的hiveserver2/beeline的配置)

现在使用的最新的hive版本是hive-2.3.5,都需要对hadoop集群做如下改变,否则无法使用。

2.5.2.1修改hadoop集群的core-site.xml中的如下配置

<property><name>hadoop.proxyuser.root.hosts</name><!-- <value>master</value> --><value>*</value>
</property><property><name>hadoop.proxyuser.root.groups</name><!-- <value>hadoop</value> --><value>*</value>
</property>

即:

配置解析:
1、hadoop.proxyuser.root.hosts配置成*的意义,表示任意节点使用hadoop集群的代理用户root都能访问到hdfs集群。
2、hadoop.proxyuser.hadoop.groups表示代理用户的组所属.
3、hadoop.proxyuser.root.hosts 中的root为hadoop用户,即hadoop的安装目录。

以上重启一下hadoop集群后生效

2.5.2.2修改hive-site.xml的如下内容:

<property><name>dfs.webhdfs.enabled</name><value>true</value></property><property><name>hive.server2.thrift.client.user</name><value>root</value><description>Username to use against thrift client</description></property><property><name>hive.server2.thrift.client.password</name><value>123456</value><description>Password to use against thrift client</description></property><property><name>hive.server2.thrift.bind.host</name><value>hadoop1</value><description>Bind host on which to run the HiveServer2 Thrift service.</description></property><property><name>hive.server2.thrift.port</name><value>10000</value><description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'binary'.</description></property><property><name>hive.server2.thrift.http.port</name><value>10001</value><description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'http'.</description></property>

要注意的是这里的用户名root,密码是操作系统的登录名和密码。

然后执行:

nohup  hive --service hiveserver2 &

或使用类似以下方式运行:

nohup hiveserver2 1>/home/hadoop/hiveserver.log 2>/home/hadoop/hiveserver.err &
或者:nohup hiveserver2 1>/dev/null 2>/dev/null &
或者:nohup hiveserver2 >/dev/null 2>&1 &

登录beenline的方式:

beeline -u jdbc:hive2//hadoop1:10000 -n root
-u :指定元数据的连接信息
-n :指定用户名和密码
另外还有一种方式可以去连接
先执行beeline,然后再输入:!connect jdbc:hive2://hadoop1:10000
[root@hadoop1 apache-hive-2.3.4-bin]# bin/beeline
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/installed/apache-hive-2.3.4-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/installed/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Beeline version 2.3.4 by Apache Hive
beeline> !connect jdbc:hive2://hadoop1:10000
Connecting to jdbc:hive2://hadoop1:10000
Enter username for jdbc:hive2://hadoop1:10000:
Enter password for jdbc:hive2://hadoop1:10000:
Connected to: Apache Hive (version 2.3.4)
Driver: Hive JDBC (version 2.3.4)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://hadoop1:10000>



再如:

[root@hadoop1 apache-hive-2.3.4-bin]# beeline -u jdbc:hive2://hadoop1:10000 -n root
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/installed/apache-hive-2.3.4-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/installed/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Connecting to jdbc:hive2://hadoop1:10000
Connected to: Apache Hive (version 2.3.4)
Driver: Hive JDBC (version 2.3.4)
Transaction isolation: TRANSACTION_REPEATABLE_READ
Beeline version 2.3.4 by Apache Hive
0: jdbc:hive2://hadoop1:10000>

2.5.3Hive wui

暂略

2.5.4和Squirrel SQL Client集成

https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients 此中最下方含有介绍。

2.5.5和Oracle的SQL Developer集成

可以和Oracle的SQLDevelopers集成
https://community.hortonworks.com/articles/1887/connect-oracle-sql-developer-to-hive.html

2.4-2.5、Hive整合(整合Spark、整合Hbase)、连接方式Cli、HiveServer和hivemetastore、Squirrel SQL Client等相关推荐

  1. mysql客户端连接hive_连接Hive的客户端界面工具–SQuirrel SQL Client

    关键字:Hive客户端.界面.SQuirrel SQL Client 刚看到一个可以连接Hive的客户端界面工具–SQuirrel SQL Client,试了一下,用起来还行,在这里记录一下安装及使用 ...

  2. beeline执行sql文件_【SparkSQL】介绍、与Hive整合、Spark的th/beeline/jdbc/thriftserve2、shell方式使用SQL...

    目录 一.Spark SQL介绍 SQL on Hadoop框架: 1)Spark SQL 2)Hive 3)Impala 4)Phoenix Spark SQL是用来处理离线数据的,他的编程模型是D ...

  3. spark整合hive

    目录 spark-shell整合 安装hive 配置信息 启动spark 测试 idea中spark整合 windows下搭建hadoop 配置环境变量 添加文件 idea连接虚拟机 连接文件 连接虚 ...

  4. phoenix+hbase+Spark整合,Spark处理数据操作phoenix入hbase,Spring Cloud整合phoenix

    1 版本要求 Spark版本:spark-2.3.0-bin-hadoop2.7 Phoenix版本:apache-phoenix-4.14.1-HBase-1.4-bin HBASE版本:hbase ...

  5. Spark 整合ElasticSearch

    Spark 整合ElasticSearch 因为做资料搜索用到了ElasticSearch,最近又了解一下 Spark ML,先来演示一个Spark 读取/写入 ElasticSearch 简单示例. ...

  6. spark整合MySQL

    spark整合MySQL <dependency><groupId>mysql</groupId><artifactId>mysql-connector ...

  7. Spark整合ElasticSearch

    2019独角兽企业重金招聘Python工程师标准>>> spark整合elasticsearch两种方式 1.自己生成_id等元数据 2.使用ES默认生成 引入对应依赖 <de ...

  8. 外部数据源 之 Plugin 可插拔的方式整合到Spark中/Spark源码中

    一:概念理解 Plugin 可插拔的方式整合到Spark中/Spark源码中 为了在用外部数据源读取文件的时候,本来读取是valui 使他变成一个带schema的df 有具体的信息 外部数据源就是把很 ...

  9. 数据湖(四):Hudi与Spark整合

    大数据联盟地址:https://bbs.csdn.net/forums/lanson 文章目录 Hudi与Spark整合 一.向Hudi插入数据

最新文章

  1. 多线程编程 - GCD
  2. Matlab Robotic Toolbox V9.10工具箱(七):Stanford arm 动力学建模与仿真
  3. 分数四则运算_JAVA
  4. HDU - 4552 怪盗基德的挑战书(后缀数组+RMQ/KMP+dp)
  5. SQL 查找是否存在,别再 COUNT 了,很耗费时间的
  6. 数学特级教师:数学除了做习题,我还他让他们看这十部纪录片!
  7. qiniudn.com域名已完全恢复
  8. 06Matplotlib数据可视化--6.2散点图
  9. java下载文件未能加载资源_Java Web start – 无法加载资源
  10. QTTabBar安装后不生效
  11. 厦门大学计算机调剂要求,厦门大学调剂公告
  12. keil编写正弦函数_Keil C51编程控制倍频正弦信号的产生
  13. 学1个月爬虫就月赚6000?告诉你爬虫的真实情况!
  14. Eclipse中无法输入中文
  15. 依赖多个项目,重复jar包不同版本冲突解决
  16. python安装结巴_python jieba(结巴)小模块精讲
  17. Kraljic采购定位模型
  18. Microchip Studio 7.0项目移植(从ICC AVR移植到Microchip Studio 7.0)
  19. 将两个iso镜像刻录到一张dvd光盘上,当然是做系统启动盘用
  20. 扑克王怎样于市场中基于金叉死叉进行趋势跟踪

热门文章

  1. 张家口zec挖矿软件哪里下载_AMTO软件下载-AMTO挖矿官网版v1.1
  2. MySQL使用SHOW PROFILE进行SQL分析
  3. VTK:vtkAnnotatedCubeActor用法实战
  4. OpenCASCADE绘制测试线束:OCAF 命令之数据框架命令
  5. boost::stacktrace模块实现终止处理程序的测试程序
  6. boost::proto模块实现使用一个带有语法的域来修剪集合重载运算符的测试程序
  7. boost::hana::greater用法的测试程序
  8. boost::container_hash模块实现哈希序列
  9. Boost::context模块callcc的无限循环测试程序
  10. Boost:双图bimap与range范围的测试程序