Hadoop安装:

首先到官方下载官网的hadoop2.7.7,链接如下 
https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 
找网盘的hadooponwindows-master.zip 
链接如下 
https://pan.baidu.com/s/1VdG6PBnYKM91ia0hlhIeHg 
把hadoop-2.7.7.tar.gz解压后 
使用hadooponwindows-master的bin和etc替换hadoop2.7.7的bin和etc

注意:安装Hadoop2.7.7 
  官网下载Hadoop2.7.7,安装时注意,最好不要安装到带有空格的路径名下,例如:Programe Files,否则在配置Hadoop的配置文件时会找不到JDK(按相关说法,配置文件中的路径加引号即可解决,但我没测试成功)。 
配置HADOOP_HOME

path添加%HADOOP_HOME%\bin(win10不用分号或者如下编辑界面不用分号,其余加上 ;)

-----------------------------------------------------------配置文件----------------------------

使用编辑器打开E:\Hadoop2.7.7\hadoop-2.7.7\etc\hadoop\hadoop-env.cmd 
修改JAVA_HOME的路径 
把set JAVA_HOME改为jdk的位置 
注意其中PROGRA~1代表Program Files 
set JAVA_HOME=E:\PROGRA~1\Java\jdk1.8.0_171

打开 hadoop-2.7.7/etc/hadoop/hdfs-site.xml 
修改路径为hadoop下的namenode和datanode

dfs.replication 
1

dfs.namenode.name.dir 
/E:/Hadoop2.7.7/hadoop-2.7.7/data/namenode

dfs.datanode.data.dir 
/E:/Hadoop2.7.7/hadoop-2.7.7/data/datanode

在E:\Hadoop-2.7.7目录下 添加tmp文件夹 
在E:/Hadoop2.7.7/hadoop-2.7.7/添加data和namenode,datanode子文件夹

还需要把hadoop.dll(从)拷贝到 C:\Windows\System32

不然在window平台使用MapReduce测试时报错

以管理员身份打开命令提示符 
输入hdfs namenode -format,看到seccessfully就说明format成功。

转到Hadoop-2.7.3\sbin文件下   输入start-all,启动hadoop集群 ,关闭是 stop-all

输入jps - 可以查看运行的所有节点

访问http://localhost:50070,访问hadoop的web界面

---------------------------------------------------------------------

hadoop启动后,创建如下的HDFS文件:

D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user/hive
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user/hive/warehouse
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /tmp
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /tmp/hive
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hadoop fs -chmod -R 777 /tmp

HIVE安装:

1.安装hadoop

2.从maven中下载mysql-connector-java-5.1.26-bin.jar(或其他jar版本)放在hive目录下的lib文件夹

3.配置hive环境变量,HIVE_HOME=F:\hadoop\apache-hive-2.1.1-bin

4.hive配置

hive的配置文件放在$HIVE_HOME/conf下,里面有4个默认的配置文件模板

hive-default.xml.template                           默认模板

hive-env.sh.template                hive-env.sh默认配置

hive-exec-log4j.properties.template    exec默认配置

hive-log4j.properties.template               log默认配置

可不做任何修改hive也能运行,默认的配置元数据是存放在Derby数据库里面的,大多数人都不怎么熟悉,我们得改用mysql来存储我们的元数据,以及修改数据存放位置和日志存放位置等使得我们必须配置自己的环境,下面介绍如何配置。

(1)创建配置文件

$HIVE_HOME/conf/hive-default.xml.template  -> $HIVE_HOME/conf/hive-site.xml

$HIVE_HOME/conf/hive-env.sh.template  -> $HIVE_HOME/conf/hive-env.sh

$HIVE_HOME/conf/hive-exec-log4j.properties.template ->  $HIVE_HOME/conf/hive-exec-log4j.properties

$HIVE_HOME/conf/hive-log4j.properties.template  -> $HIVE_HOME/conf/hive-log4j.properties

(2)修改 hive-env.sh

export HADOOP_HOME=F:\hadoop\hadoop-2.7.2
export HIVE_CONF_DIR=F:\hadoop\apache-hive-2.1.1-bin\conf
export HIVE_AUX_JARS_PATH=F:\hadoop\apache-hive-2.1.1-bin\lib

(3)修改 hive-site.xml

  1  <!--修改的配置-->  2 3 <property>  4 5 <name>hive.metastore.warehouse.dir</name>  6 7 <!--hive的数据存储目录,指定的位置在hdfs上的目录-->  8 9 <value>/user/hive/warehouse</value>  10 11 <description>location of default database for the warehouse</description>  12 13 </property>  14 15 <property>  16 17 <name>hive.exec.scratchdir</name>  18 19 <!--hive的临时数据目录,指定的位置在hdfs上的目录-->  20 21 <value>/tmp/hive</value>  22 23 <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>  24 25 </property>  26 27 <property>  28 29 <name>hive.exec.local.scratchdir</name>  30 31 <!--本地目录-->  32 33 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>  34 35 <description>Local scratch space for Hive jobs</description>  36 37 </property>  38 39 <property>  40 41 <name>hive.downloaded.resources.dir</name>  42 43 <!--本地目录-->  44 45 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>  46 47 <description>Temporary local directory for added resources in the remote file system.</description>  48 49 </property>  50 51 <property>  52 53 <name>hive.querylog.location</name>  54 55 <!--本地目录-->  56 57 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>  58 59 <description>Location of Hive run time structured log file</description>  60 61 </property>  62 63 <property>  64 65 <name>hive.server2.logging.operation.log.location</name>  66 67 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp/operation_logs</value>  68 69 <description>Top level directory where operation logs are stored if logging functionality is enabled</description>  70 71 </property>  72 73 <!--新增的配置-->  74 75 <property>  76 77 <name>javax.jdo.option.ConnectionURL</name>  78 79 <value>jdbc:mysql://localhost:3306/hive?characterEncoding=UTF-8</value>  80 81 </property>  82 83 <property>  84 85 <name>javax.jdo.option.ConnectionDriverName</name>  86 87 <value>com.mysql.jdbc.Driver</value>  88 89 </property>  90 91 <property>  92 93 <name>javax.jdo.option.ConnectionUserName</name>  94 95 <value>root</value>  96 97 </property>  98 99 <property>
100
101 <name>javax.jdo.option.ConnectionPassword</name>
102
103 <value>root</value>
104
105 </property>
106
107 <!-- 解决 Required table missing : "`VERSION`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables"  -->
108
109 <property>
110
111 <name>datanucleus.autoCreateSchema</name>
112
113 <value>true</value>
114
115 </property>
116
117 <property>
118
119 <name>datanucleus.autoCreateTables</name>
120
121 <value>true</value>
122
123 </property>
124
125 <property>
126
127 <name>datanucleus.autoCreateColumns</name>
128
129 <value>true</value>
130
131 </property>
132
133 <!-- 解决 Caused by: MetaException(message:Version information not found in metastore. )  -->
134
135 <property>
136
137 <name>hive.metastore.schema.verification</name>
138
139 <value>false</value>
140
141 <description>
142
143     Enforce metastore schema version consistency.
144
145     True: Verify that version information stored in metastore matches with one from Hive jars.  Also disable automatic
146
147           schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures
148
149           proper metastore schema migration. (Default)
150
151     False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
152
153 </description>
154
155 </property>   

注:需要事先在hadoop上创建hdfs目录

启动metastore服务:hive --service metastore

在数据库中生成对应的 hive 数据库

启动Hive:hive

-------------------------------------------------------------- 创建表 以及 查询案例

hive上创建表:

CREATE TABLE testB (
id INT,
name string,
area string
) PARTITIONED BY (create_time string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE;

将本地文件上传到 HDFS:

HDFS下执行:    D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -put D:\Code\hadoop-2.7.7\gxy\bbb.txt /user/hive/warehouse

hive导入HDFS中的数据:

LOAD DATA INPATH '/user/hive/warehouse/bbb.txt' INTO TABLE testb PARTITION(create_time='2015-07-08');

执行选择命令:

select * from testb;

转载于:https://www.cnblogs.com/gxyandwmm/p/10837813.html

Windows环境下安装Hadoop+Hive的使用案例相关推荐

  1. Windows环境下安装HBase(Hadoop3.1.3、HBase2.2.5)与Linux环境下搭建HBase高可用集群

    Windows环境下安装HBase 下载HBase 官网: https://hbase.apache.org/downloads.html 不同版本集合:https://archive.apache. ...

  2. 在没有网的windows环境下安装Python模块

    在安装python环境以及python的一些模块时,可能需要在没有网的windows环境下安装Python模块. python模块下载地址,几乎所有的模块都有:https://www.lfd.uci. ...

  3. MYSQL 5.7 解压版 windows 环境下安装

    MYSQL 5.7 解压版 windows 环境下安装 1.下载MYSQL 2.下载完成后,放入要部署目录,解压. 3.新建 my.ini 文件 data 子文件夹千万不要自己建,否则后续启动会报错 ...

  4. Windows环境下安装Oracle11g客户端

    Windows环境下安装Oracle11g客户端 前言 假设你已经成功安装了Oracle11g,有一个本地的Oracle服务器,或者你有一个远程的Oracle服务器.注意保证客户端和服务器端体系结构的 ...

  5. windows环境下安装RabbitMQ(超详细)

    windows环境下安装RabbitMQ(超详细) 记录RabbitMQ安装过程,欢迎大家和我交流.(安装过程中遇到的问题也有总结哈,请查看) RabbitMq简介 安装准备工具 安装步骤(图文) 安 ...

  6. 在windows环境下安装pycocotools

    在windows环境下安装pycocotools  之前看过很多教程,不过始终没有找到适合自己的,因此记录一下,希望能帮助到小伙伴们.  首先,进入pycocotools的网址,然后下载对应的压缩包 ...

  7. Windows环境下安装scrapy

    scrapy是Python开发的一个爬虫框架,很多情况下都是基于Linux系统安装,本篇将介绍windows环境下安装scrapy框架,亲测有效. 1.安装依赖 直接pip install scrap ...

  8. Mysql学习篇之---Windows环境下安装 (修改密码)

    Mysql学习篇之---Windows环境下安装 (修改密码) 前言: 自己瞎鼓捣本机上的Mysql,结果导致mysql密码用那个都登录不进去了. 解决方案: 首先把mysql重新删除掉,重新解压了一 ...

  9. Windows环境下安装wdl文件

    网上有写介绍Windows环境下安装wdl文件的方法,有些方法非常麻烦,经过研究,个人觉得比较简单的方法如下: 安装pip 从https://pypi.python.org/pypi/pip#down ...

  10. Windows环境下安装Go语言

    Windows环境下安装Go语言 下载 打开Go语言中文网下载页面:https://studygolang.com/dl 按照对应平台选择下载:https://studygolang.com/dl/g ...

最新文章

  1. 修改sga后oracle打不开的解决方法
  2. Gradle修改本地仓库的位置
  3. activity 生命周期_从0系统学Android-2.4 Activity 的生命周期
  4. xshell 设置屏幕字体
  5. oracle语句借书,Oracle SQL题目及其解答(借书卡、图书、借书记录)
  6. Angular NgModule 中的 declarations 和 exports定义
  7. postgres清理pg_xlog
  8. Wget漏洞(CVE-2016-4971)利用方式解析
  9. ES6学习摘要(03)(新人学习)
  10. 停止标记NYOJ 一个简单的数学题 南工330停止标记
  11. python app开发框架_Python可以开发APP吗?用哪个框架?
  12. windows优化大师8周年纪念版_P5SPS4体验版上线|青之驱魔师10周年纪念新卷发售【搞趣日报】...
  13. 智慧教育平台android,智慧教育平台APP 1.0.2 安卓版
  14. java日常基础知识2
  15. 免费全球网络学习学院上线以支持妇女发展
  16. SpringCloud 分布式日志采集方案
  17. 第七届河南省程序设计大赛——A 海岛争霸
  18. angular使用@angular/material 出现export 'ɵɵinject' was not found in '@angular/core'
  19. 一文读懂,WMS仓库管理系统模块功能
  20. H5图片切换,js图片轮播,js图片自动切换

热门文章

  1. Reduce归约 证明原理
  2. thinkphp5 php代码中如何确定文件的路径位置
  3. verilog 自动售货机状态机实现_答辩-基于Verilog HDL的自动售货机的设计.ppt
  4. JavaSE基础——多态、抽象类、接口
  5. 基于springboot的考研学习平台
  6. 算法笔记二分查找题目
  7. 云计算机室怎么样映射d 盘,云服务器磁盘如何映射到本地磁盘
  8. session与cookie之间的关系
  9. 阶段5 3.微服务项目【学成在线】_day02 CMS前端开发_09-webpack研究-webpack介绍
  10. 第二把数独游戏 代码