工欲善其事,必先利其器,啥都不说,Hadoop下载:http://archive.cloudera.com/cdh5/cdh/5/  选择好相应版本搞起,在本文讲述的是 围绕hadoop-2.3.0-cdh5.1.2版本安装过程。(安装环境为自己在VMWare 10里面搭建的三台 Linux 虚拟机)。

1、hadoop 是大apache开源的分布式离线计算框架,语言:java,既然这样,要想搭建hadoop环境(不管伪分布式 还是多机集群),那必须在服务器上安装好jdk。

简单过程简单说,简要描述下jdk安装配置过程(据说,hadoop-2.3.0需要jdk1.7+版本支持,咱也不管了,那就装吧,版本:jdk-7u67-linux-i586.tar.gz,安装新jdk之前记得找到linux自带的jdk版本并删除,不明白处自百之)

Ubuntu 12.04下安装JDK1.7 http://www.linuxidc.com/Linux/2012-06/62239.htm

CentOS6.3安装JDK和环境配置 http://www.linuxidc.com/Linux/2012-09/70780.htm

Ubuntu14.04 64位 安装JDK1.7  http://www.linuxidc.com/Linux/2015-01/111102.htm

a、解压到/usr/java目录下

tar  xvf jdk-7u67-linux-i586.tar.gz  -C /usr/java

b、 vi /etc/profile

export  JAVA_HOME=/usr/java/jdk1.7.0_67

export  CLASSPATH=/usr/java/jdk1.7.0_67/lib

export  PATH=$JAVA_HOME/bin:$PATH

c、source /etc/profile //不重启服务器情况下,这句让配置文件生效

d、java -version  //验证jdk是否正确安装

2、我们先规划好三台机,并制定好 三台机之后的角色:

主机名    ip                            角色

master  192.168.140.128    NameNode    ResourceManager

slave1  192.168.140.129    DateNode    NodeManager

slave2    192.168.140.130    DateNode    NodeManager

3、修改 主机名:

root 权限下:vi /etc/sysconfig/network

修改内容:HOSTNAME=master (同理 两台slave主机也要修改此配置,并分配相应的名字)

同时 vi  /etc/hosts          ( 同理 两台slave主机也要修改此配置,并分配相应的hosts对应关系)  
          127.0.0.1 master
          192.168.140.129 slave1
          192.168.140.130 slave2

修改完重启:reboot

4、建立hadoop用户(包括两台slave):

useradd hadoop

passwd hadoop

5、master上配置SSH免密码登录

su  hadoop  //切换到hadoop用户目录下

ssh-keygen-t rsa(一路回车 生成密钥)

cd/home/hadoop/.ssh/
    ls  //查看是否有生成两个文件 id_rsa.pub id_rsa

6、同步ssh信息到两台slave,  登录两台slave

mkdir /home/hadoop/.ssh

scp  id_rsa.pub hadoop@slave1:/home/hadoop/.ssh/

mv id_rsa.pub authorized_keys

7、新建hadoop安装目录  (root权限下操作)

mkdir -p /data/hadoop
8、 解压下载下来的hadoop安装包到安装目录(root权限下操作)

tar xvf hadoop-2.3.0-cdh5.1.2.tar.gz -C/data/hadoop
9、将安装目录权限赋予给 hadoop用户:(root权限下操作)

chown -R hadoop.hadoop /data/hadoop/
10、配置hadoop安装信息和路径(root权限下操作)
      vi /etc/profile (在最后加上下面内容)
          export HADOOP_HOME=/data/hadoop
          export PATH=$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
      source /etc/profile  //让配置生效
11、master上/data/hadoop/etc/hadoop
      vi slaves
          slave1
          slave2
      vi masters
          master
12、修改如下几个文件,并在中间添加以下相应内容:

a、vi core-site.xml

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>io.file.buffer.size</name>

<value>131072</value>

property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/data/hadoop/tmpvalue>

</property>

</configuration>

b、vi hdfs-site.xml

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/data/hadoop/dfs/name</value>

</property>

<property>

<name>dfs.namenode.data.dir</name>

<value>file:/data/hadoop/dfs/data</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

</configuration>

c、vi yarn-site.xml

<configuration>

<property>

<name>yarn.resourcemanager.address</name>

<value>master:8032</value>

</property>

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>master:8030</value>

</property>

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>master:8031</value>

</property>

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>master:8033</value>

</property>

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>master:8088</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

</configuration>

d、mapred-site.xml

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>master:10020</value>

</property>

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>master:19888</value>

</property>

</configuration>

至此 配置文件基本配置完毕。

13、将master上的hadoop安装文件同步到slave1 slave2,(hadop用户权限下即可)

cd /data/hadoop
      scp -r /data/hadoop/*hadoop@slave1:/data/hadoop/        //同步到slave1

scp -r /data/hadoop/*hadoop@slave2:/data/hadoop/        //同步到slave2

14、最后我们来到 /data/hadoop/bin目录下

./hadoop namenode -format  //启动hadoop

15、如果没有报错信息,基本是可以说 hadoop起来了,随便截取了最后几段日志:

15/01/13 18:08:10 INFO util.GSet:VM type      = 32-bit
15/01/13 18:08:10 INFO util.GSet:0.25% max memory 966.7 MB = 2.4 MB
15/01/13 18:08:10 INFO util.GSet:capacity      = 2^19 = 524288 entries
15/01/13 18:08:10 INFOnamenode.FSNamesystem: dfs.namenode.safemode.threshold-pct = 0.9990000128746033
15/01/13 18:08:10 INFOnamenode.FSNamesystem: dfs.namenode.safemode.min.datanodes = 0
15/01/13 18:08:10 INFOnamenode.FSNamesystem: dfs.namenode.safemode.extension    = 30000
15/01/13 18:08:10 INFOnamenode.FSNamesystem: Retry cache on namenode is enabled
15/01/13 18:08:10 INFOnamenode.FSNamesystem: Retry cache will use 0.03 of total heap and retry cacheentry expiry time is 600000 millis
15/01/13 18:08:10 INFO util.GSet:Computing capacity for map NameNodeRetryCache
15/01/13 18:08:10 INFO util.GSet:VM type      = 32-bit
15/01/13 18:08:10 INFO util.GSet:0.029999999329447746% max memory 966.7 MB = 297.0 KB
15/01/13 18:08:10 INFO util.GSet:capacity      = 2^16 = 65536 entries
15/01/13 18:08:10 INFOnamenode.AclConfigFlag: ACLs enabled? false
Re-format filesystem in StorageDirectory /data/hadoop/dfs/name ? (Y or N) Y
15/01/13 18:08:17 INFOnamenode.FSImage: Allocated new BlockPoolId:BP-729401054-127.0.0.1-1421143697660
15/01/13 18:08:17 INFOcommon.Storage: Storage directory /data/hadoop/dfs/name has been successfullyformatted.
15/01/13 18:08:18 INFOnamenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
15/01/13 18:08:18 INFOutil.ExitUtil: Exiting with status 0
15/01/13 18:08:18 INFOnamenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting downNameNode at master/127.0.0.1
************************************************************/

程序员干久了,性格沉闷,言辞干瘪,简单的描述只为做个记录,多多指教。

CentOS安装和配置Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04上搭建Hadoop环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式) http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu下Hadoop环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建Hadoop环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建Hadoop环境(在Winodws环境下用虚拟机虚拟两个Ubuntu系统进行搭建) http://www.linuxidc.com/Linux/2011-12/48894.htm

更多Hadoop相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

摘自永久更新链接地址:http://www.linuxidc.com/Linux/2015-01/111740.htm

转载于:https://www.cnblogs.com/xd502djj/p/5020172.html

安装hadoop-2.3.0-cdh5.1.2全过程相关推荐

  1. ambari hdfs 启动报错_Ambari 1.6 自动安装hadoop 2.2.0 在Ambari启动namenode时报错

    展开全部 lib/ambari-agent/data/, ',587 - Modifying group nobody 2015-03-11 09;cache/:34:49;python2: Fals ...

  2. Hadoop 2.2.0安装和配置lzo

    2019独角兽企业重金招聘Python工程师标准>>> Hadoop经常用于处理大量的数据,如果期间的输出数据.中间数据能压缩存储,对系统的I/O性能会有提升.综合考虑压缩.解压速度 ...

  3. hadoop+hive-0.10.0完全分布式安装方法

    hadoop+hive-0.10.0完全分布式安装方法 1.jdk版本:jdk-7u60-linux-x64.tar.gz http://www.oracle.com/technetwork/cn/j ...

  4. CentOS 7安装Hadoop 3.0.0

    最近在学习大数据,需要安装Hadoop,自己弄了好久,最后终于弄好了.网上也有很多文章关于安装Hadoop的,但总会遇到一些问题,所以把在CentOS 7安装Hadoop 3.0.0的整个过程记录下来 ...

  5. hadoop 2.5.0安装和配置

    安装hadoop要先做以下准备: 1.jdk,安装教程在 http://www.cnblogs.com/stardjyeah/p/4640917.html 2.ssh无密码验证,配置教程在 http: ...

  6. hadoop.2.6.0安装hive.1.2.2

    文章目录 1.hadoop.2.6.0的安装 2.hive.1.2.2的安装 2.1 前提 2.2 解压 错误1.提示 1.hadoop.2.6.0的安装 参考:https://blog.csdn.n ...

  7. 记一次 基于Hadoop 3.3.0 安装部署 Spark 3.0.0 分布式集群

    一.基本信息 官网 http://spark.apache.org/ Apache Spark 官方文档中文版(Spark 2.2.0) http://spark.apachecn.org/#/ Sp ...

  8. Apache Spark学习:将Spark部署到Hadoop 2.2.0上

    本文介绍的是如何将Apache Spark部署到Hadoop 2.2.0上,如果你们的Hadoop是其他版本,比如CDH4,可直接参考官方说明操作. 需要注意两点:(1)使用的Hadoop必须是2.0 ...

  9. 在CDH 6.3.1上安装HAWQ 2.4.0

    目录 一.安装环境 二.选择HAWQ主机 三.安装前准备 1. 建立gpadmin用户和HAWQ主目录 2. 创建HAWQ的本地数据目录 3. 安装依赖包 三.安装HAWQ 1. 下载安装包 2. 解 ...

  10. Hadoop入门(上):大数据特点、大数据前景、大数据组织结构、Hadoop组成、Hadoop版本介绍、Hadoop运行环境搭建、CentOS6安装JDK、安装Hadoop、Hadoop目录结构

    资料来源于尚硅谷 本篇文章目录 第1章·大数据概论 1.1.大数据概念. 1.2.大数据特点(4V) 1.3.大数据应用场景 1.4.大数据发展前景 1.5·大数据部门业务流程分析. 1.6·大数据部 ...

最新文章

  1. Sql查询一个列对应多个列
  2. 前端学习(553):node实现登录和注册第一部分代码
  3. python 柱形图_如何利用python 中的pyecharts包绘制柱形图
  4. 计算机程序员能做多久,这个行业有年龄限制吗?
  5. 软件测试面试题及答案,2022最强版
  6. 跑分软件测试原理,只会比高低?教你三分钟看懂安兔兔跑分
  7. Android Kernel wakeup_sources分析
  8. Freemarker提供了3种加载模板目录的方法
  9. python数据采集6-读取文档
  10. win10链接无线打印服务器,win10系统无法添加无线打印机的解决技巧
  11. c++头文件iomanip.h中的setw、setprecision、setfill和setbase函数的使用
  12. java 实现pdf 转word去除水印和去除页数限制
  13. 技术博客那些事儿-如何写好博客
  14. VMware安装红旗Linux
  15. Kubernetes控制器和service
  16. Blob开头视频链接如何下载
  17. ubuntu1404 安装php5.6-fpm
  18. 特征检测与特征匹配算法简介
  19. vmware Dos声卡驱动安装说明
  20. go JSON库调研

热门文章

  1. python的for循环累加_在python中将6 for循环累计和矢量化
  2. matlab 填充数组,Matlab自动将数组类型从复数转换为double
  3. java语言与c 的区别_Java语言的特点以及与C、C++的区别
  4. vsftp:425 错误
  5. hive能加快MySQL查询速度吗_建立索引可以加快表中数据查询的速度吗
  6. @SentinelResource使用
  7. java序列化如何实现_Java实现序列化与反序列化的简单示例
  8. wpf 语音通话_WPF+WCF一步一步打造音频聊天室(三):语音聊天
  9. php 不支持无符号整数,是否可以使用大型无符号int64而不会在PHP中失去精度?
  10. python gps模块_一步一步使用uPyCraft学习MicroPython之GPS记录器