版权声明:本文为博主原创文章,欢迎转载,请注明地址。

目录(?)[-]

  1. 准备工作

    1. 1 软件准备
    2. 2 创建hadoop用户
    3. 3 配置SSH无密码访问
    4. 4 安装JAVA环境
  2. 单机模式安装
  3. 伪分布式安装

首先说明一下:采用的是新装的CentOS的环境,利用xshell进行远程操作来搭建Hadoop单机模式,伪分布式和完全分布式的文档。环节都是一环套一环,有先后顺序存在。本人是在win8.1 64位系统环境下,并且安装的Cent OS也是64位,故所有相关软件都是64位的。此教程只要照着做,都可以完成,祝大家成功!

系统和软件以及版本说明:

系统和软件

VMWare Workstation11

XShell5

Cent OS 6.5 (64位)

Hadoop 2.6.0

Openjdk 1.7

1. 准备工作

1.1. 软件准备

1、安装VMWare

2、在VMWare上安装CentOS6.5操作系统

3、安装XShell5,用来远程登录系统

4、通过rpm -qa | grep ssh 检查cent os 是否安装了ssh server和ssh client ,然后使用ssh localhost测试一下SSH是否可用。

如果没有安装那么使用下面的命令安装:

    yum install openssh-clients  yum install openssh-server  

5、使用XShell远程登录服务器,接下来的操作就在XShell上通过命令行来执行了。虚拟机中的服务器可以过ifconfig这个命令来获取分配的ip地址(这个地址可能随着虚拟机的重启会发生变化)。

1.2. 创建hadoop用户

当前虚拟机中没有安装任何软件,那么我们的目的是搭建一个Hadoop单机模式,那么首先需要在集群中建立一个hadoop用户,用来启动Hadoop的进程,这样避免使用root用户启动进程,这也是比较规范的服务器用户管理,所以下面先创建hadoop用户:

    useradd -m hadoop -s /bin/bash   passwd hadoop    #为hadoop用户设置密码,我们设置为hadoop,方便  

接下来的安装过程中会涉及到root用户和hadoop用户的切换,请大家注意!!!

1.3. 配置SSH无密码访问

在准备工作中我们已经安装配置了SSH客户端和服务器,集群和单节点模式都需要到SSH,Hadoop中namenode需要启动集群中的所有机器的Hadoop守护进程,而这个过程需要通过SSH登录来实现。而Hadoop并没有提供SSH输入密码的登录形式,因此为了保证可以顺利登录每台机器,需要将所有机器配置为namenode可以无密码登录它们。实际中配置失败也可以运行,但是每次输入密码是非常麻烦的,所以我们需要配置SSH的无密码访问(注意无密码访问是为hadoop用户配置的,故以下操作需要在hadoop用户下完成):

1. 首先我们需要进入/home/hadoop/.ssh目录下,如果这个目录不存在,需要执行一下ssh localhost   这样就会生成这个目录。

2. 执行以下命令,创建密钥并且将密钥加入授权:

    cd ~/.ssh/                       # 若没有该目录,请先执行一次ssh localhost  ssh-keygen -t dsa                 # 会有提示,都按回车就可以  cat id_dsa.pub >> authorized_keys   # 加入授权  chmod 600 ./authorized_keys       # 修改文件权限,如果不改,无法通过,原因好像是cent os的权限验证比较严格  

3. 在root用户下修改/etc/ssh/sshd_config文件(取消以下三个变量的注释)

vim /etc/ssh/sshd_config  

重启sshd服务:

service sshd restart  

4. 切换到hdoop用户,接下来,输入ssh localhost测试一下无密码登录,直接enter就可以,无需密码

1.4. 安装JAVA环境

Java 环境可选择 Oracle 的 JDK,或是 OpenJDK,现在一般 Linux 系统默认安装的基本是 OpenJDK,如 CentOS 6.4 就默认安装了 OpenJDK 1.7。按 http://wiki.apache.org/hadoop/HadoopJavaVersions 中说的,Hadoop 在 OpenJDK 1.7 下运行是没问题的。需要注意的是,CentOS 6.4 中默认安装的只是 Java JRE,而不是 JDK,为了开发方便,我们还是需要通过 yum 进行安装 JDK,安装过程中会让输入 [y/N],输入 y 即可:

yum install java-1.7.0-openjdk java-1.7.0-openjdk-devel  <span style="font-family:KaiTi_GB2312;"><span style="font-size:18px;">       </span></span>

通过上述命令安装 OpenJDK,默认安装位置为 /usr/lib/jvm/java-1.7.0-openjdk(该路径可以通过执行 rpm -ql java-1.7.0-openjdk-devel | grep '/bin/javac' 命令确定,执行后会输出一个路径,除去路径末尾的 “/bin/javac”,剩下的就是正确的路径了)。OpenJDK 安装后就可以直接使用 java、javac 等命令了。为了方便,我们配置一下环境变量。

设置全局环境变量:

vim /etc/profile 

再最后加入以下语句,设置JAVA_HOME

    export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64  export PATH=$JAVA_HOME/bin:$PATH  export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar  source /etc/profile  #使变量生效  echo $JAVA_HOME  #检验设置是否正确  <span style="font-family:KaiTi_GB2312;"><span style="font-size:18px;"></span></span>

这样我们就可以在任意目录下使用java 、javac命令了。

2. 单机模式安装

1) 通过xftp将本地hadoop安装包和mds文件发送到服务器/home/hadoop目录下,然后验证tar包的完整性;若文件不完整则这两个值一般差别很大,可以简单对比下前几个字符跟后几个字符是否相等即可,如下图所示,如果两个值不一样,请务必重新下载。

    <span style="font-size:18px;">cat hadoop-2.6.0.tar.gz.mds | grep 'MD5'  md5sum hadoop-2.6.0.tar.gz | tr "a-z" "A-Z"</span>  

Hadoop下载地址:

http://archive.apache.org/dist/hadoop/core/

2) 使用root账号,进入/home/hadoop目录下,解压安装文件到/usr/local/hadoop下

tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local  

3) 修改权限

    mv hadoop-2.6.0/ hadoop/   #更改文件夹名称  chown -R hadoop:hadoop ./hadoop   #修改权限  

4) 验证单机模式是否安装成功,进入/usr/local/hadoop/bin目录下,执行./hadoop -version

5) 执行一个小例子

Hadoop 默认模式为非分布式模式,无需进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试。

现在我们可以执行例子来感受下 Hadoop 的运行。Hadoop 附带了丰富的例子(运行./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar 可以看到所有例子),包括 wordcount、terasort、join、grep 等。

在此我们选择运行 grep 例子,我们将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。

    cd /usr/local/hadoop  mkdir ./input  cp ./etc/hadoop/*.xml ./input   # 将配置文件作为输入文件  ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'  cat ./output/*          # 查看运行结果

执行过程中报错:

这是由于找不到这个主机,是因为我们的主机叫host1,而/etc/hosts文件中并没有这个主机名的映射,添加一下然后再运行上述命令:

执行成功后如下所示,输出了作业的相关信息,输出的结果是符合正则的单词 dfsadmin 出现了1次。

6) 为了便于Hadoop的操作,我们在为hadoop用户添加环境变量,让用户可以在任何地方执行hadoop命令,我们修改~/.bashrc文件配置,在最后添加以下命令,并且使生效(source ~/.bashrc):

    export HADOOP_HOME=/usr/local/hadoop  export HADOOP_INSTALL=$HADOOP_HOME  export HADOOP_MAPRED_HOME=$HADOOP_HOME  export HADOOP_COMMON_HOME=$HADOOP_HOME  export HADOOP_HDFS_HOME=$HADOOP_HOME  export YARN_HOME=$HADOOP_HOME  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin  

3. 伪分布式安装

前提:已经安装完成单机模式。

伪分布式只需要在单机模式的基础上改两个配置文件并且格式化namenode即可。

vim /usr/local/hadoop/etc/hadoop/core-site.xml

(core-site.xml的配置项可以在这里查找:http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-common/core-default.xml)

添加如下配置:

<property>  <name>hadoop.tmp.dir</name>  <value>file:/usr/local/hadoop/tmp</value>
</property>
<property>  <name>fs.defaultFS</name>  <value>hdfs://host1:9000</value>
</property>

Hdfs-site.xml可以在这里查找(http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml)

    <property>  <name>dfs.replication</name>  <value>1</value>  </property>  <property>  <name>dfs.namenode.name.dir</name>  <value>file:/usr/local/hadoop/tmp/dfs/name</value>  </property>  <property>  <name>dfs.datanode.data.dir</name>  <value>file:/usr/local/hadoop/tmp/dfs/data</value>  </property>  

分别修改/usr/local/hadoop/etc/hadoop下的hadoop-env.sh和yarn-env.sh:

    export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.85.x86_64  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native  export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"  

格式化namenode:

hdfs namenode -format  

成功的话,会看到 successfully formatted 的提示,且倒数第5行的提示如下,Exitting with status 0 表示成功,若为 Exitting with status 1 则是出错。若出错,请仔细检查之前步骤。

start-dfs.sh   #启动hdfs  

必须看到namenode和datanode都启动了才行!!!!

本地的伪分布式环境搭建完成!!!

Hadoop单机模式和伪分布式搭建教程CentOS相关推荐

  1. Hadoop Single Node Setup(hadoop本地模式和伪分布式模式安装-官方文档翻译 2.7.3)

    Purpose(目标) This document describes how to set up and configure a single-node Hadoop installation so ...

  2. Hadoop的三种模式(单机模式,伪分布式,完全分布式)以及集群的搭建

    基本概念: 1. Hadoop是一个分布式文件系统的基础架构,用户可以利用集群进行高速运算和存储 2. Hadoop实现了一个分布式文件系统(Hadoop Distributed File Syste ...

  3. Hadoop运行模式 之 伪分布式运行模式

    什么是伪分布式模式?它与本地运行模式以及完全分布式模式有什么区别? 伪分布式的配置信息,完全是按照完全分布式的模式去搭建的,但是它只有一台服务器,可以用于学习和测试,真正的开发中不可以使用. 目录 一 ...

  4. Ubuntu下安装配置Hadoop独立模式和伪分布式

    2019独角兽企业重金招聘Python工程师标准>>> 初学hadoop,在网上找到一篇不错教程,亲试可用,配置无障碍,原文链接http://blog.csdn.net/hitwen ...

  5. Spark伪分布式搭建与SparkYarn搭建

    Spark伪分布式搭建教程(Standalone:Master+Slave) 分析: 1.配置好IP 2.修改好主机名 3.做好IP映射 4.关闭防火墙 5.安装好Java(请参考Linux-Java ...

  6. Hadoop2.2.0伪分布式搭建

    在hadoop中,分为单机模式,伪分布式,和完全分布式.而伪分布式在1.X中就是类似JobTracker和TaskTracker都在一台机器上运行,在2.X中,就是NameNode和DataNode在 ...

  7. 大数据学习(2-1)-Hadoop安装教程-单机模式和伪分布模式(Ubuntu14.04LTS)

    文章目录 目录 1.linxu的安装 1.1安装Linux虚拟机 1.2安装Linux和Windows双系统 2.Hadoop的安装 2.1 Hadoop安装前配置 2.1.1 配置Hadoop用户 ...

  8. 【云计算平台】Hadoop单机模式环境搭建

    Centos7环境 – Hadoop单机模式部署 正文开始@Assassin 目录: Centos7环境 -- Hadoop单机模式部署 1. Hadoop介绍: 2. Hadoop发展史及生态圈: ...

  9. Ubuntu下的Java和Hadoop安装及配置伪分布式教程

    Hadoop安装及配置伪分布式教程 1.创建hadoop用户 更新apt 2.安装SSH.配置SSH无密码登陆 安装SSH 配置SSH无密码登录 3.安装Java环境 4.安装Hadoop3.1.3 ...

最新文章

  1. RDIFramework.NET ━ .NET快速信息化系统开发框架 V3.2-新增模块管理界面导出功能(可按条件导出)...
  2. solrj操作单机solr
  3. java递归实现 堆的删除_java 递归实现删除或查询指定目录下的全部文件
  4. 2 172.02 php,kafka安装、相关命令以及PHP使用
  5. 打开Delphi 10.1 berlin提示脚本错误的解决方法
  6. Ubuntu Tweak 0.8.2 发布
  7. 电脑基础操作_苹果电脑基础操作,和使用须知
  8. CSDN编程挑战(交换字符)
  9. char与varchar区别(MYISAM)
  10. ROS与Matlab协同进行运动控制
  11. java uuid 随机生成唯一序列号
  12. 软件测试(测试用例)—写用例无压力
  13. 设计模式总结之模式分类
  14. postgresql 数据库 Encoding、Collate、Ctype
  15. java sort 时间排序_java collection.sort()根据时间排序list
  16. 不断下沉的咖啡业,是虚假的繁荣还是破局的前夜?
  17. 零基础建站教程(二)宝塔面板的使用和CMS的安装
  18. 手游代理加盟如何避免被套路?
  19. 【浅谈】main函数的三个参数
  20. 命令行运行Windows更新

热门文章

  1. 中国电信商务领航:网关(2-1)端口映射
  2. UBTC——区块链下一个领航大旗
  3. PHP使用CURL详解
  4. 世界各地流行的免费DNS服务
  5. 云服务器和虚拟主机区别何在?
  6. 移动产品设计(03)-移动App互联网汽车、互联网装修、K12教育需求
  7. DotNetBar for Windows Forms 12.9.0.0_冰河之刃重打包版及制作Visual Studio C#项目模板文件详解...
  8. Foxmail7.2导入账户信息
  9. python之查看图像位深度,以及改变图像位深度
  10. html设置使图片自动移动,html的图片移动