2019独角兽企业重金招聘Python工程师标准>>>

安装目标:一个namenode 和 2 个datanode,假定已用户名zhaomeng和密码zhaomeng进行

虚拟机:3个centos 64(桥接模式)

    1.192.168.203.129 master_centos64_12.192.168.203.130 slave_centos64_23.192.168.203.138 slave_centos_3

准备工作:

1.启动三个虚拟机master_centos64_1

2.检查ssh是否安装和sshd是否启动(可否互相ssh,端口号默认是22)

3.若想配置好记的机器名,可以sudo vi /etc/hostname将HOSTNAME改成自己喜欢的

4.若想只用机器名,可以sudo vi /etc/hosts更改路由表 (hosts文件优先于路由器)

5.(optional)检查防火墙iptable

6.在三台机器上创建相同用户,如zhaomeng, 加入sudoers列表和root用户组

a.useradd -G root zhaomeng

b.sudovi /etc/sudoers 正加root类似的一行

      root ALL(ALL)  ALLzhaomeng ALL(ALL)  ALL

7.配置用户zhaomeng在三台机器相互间免密码ssh

a.(master1)cd /home/zhaomeng

b.(master1)ssh-keygen之后直接3个回车或者ssh-keygen -t rsa -P ''      (在主目录生成.ssh/idrsa和.ssh、id_rsa.pub)

c.(master1)cat .ssh/id_rsa.pub >> .ssh/authorized_keys

d.(slave2和slave3)执行ab并将id_rsa.pub文件均scp至master1,并执行c

e.(master1)将包含3个公钥的authorized_keys文件scp至slave2和slave3

f.(master1,slave2,slave3)chmod 600 .ssh/authorized_keys(非常重要,否则不起效)

g.(master1,slave2,slave3)三台机器之间相互测试时候可以无密码ssh   (第一次均需要确认是否记住凭证,选择yes)

8.(master1,slave2,slave3)下载和安装JDK7,并设置必要的JAVA_HOME和PATH变量

9.(master1)下载hadoop2.6.3,解压至/home/zhaomeng/hadoop263  (hadoop263下路目录为bin sbin etc libexec lib 等)

10.(master1,slave2,slave3)设置环境变量

vi /etc/profile 加入如下内容

export JAVA_HOME=/usr/java/default
export HADOOP_HOME=/home/zhaomeng/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME

并使之生效source /etc/profile

11.(master1)配置HADOOP_HOME/etc/hadoop/core.site.xml    hdfs.site.xml   yarn.site.xml (mapred-site.xml) slaves 以及hadoop-sne.sh和yarn-env.sh (两个sh文件主要是加入JAVA_HOME变量)

12.(master1)mkdir logs tmp data

13.(master1)将HADOOP_HOME整个文件夹scp至slave2和slave3,并保持和master1一样的目录结构

14.(master1)格式化namenode,执行HADOOP_HOME/bin/hdfs namenode -format

15.(master1)启动hdfs,执行HADOOP_HOME/sbin/start-dfs.sh

16.(master1)启动yarn,执行HADOOP_HOME/sbin/start-yarn.sh

17.几个网址

http://master1:8088/

http://master1:50070/

18.待续

附录几个文件

core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.203.129:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/zhaomeng/hadoop/tmp</value>
</property>
</configuration>

hdfs-site.xml

<configuration>
<property>
<name>dfs.webhdfs.enable</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.ipc.address </name>
<value>0.0.0.0:50020</value>
</property>
<property>
<name>dfs.datanode.http.address</name>
<value>0.0.0.0:50075</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/zhaomeng/hadoop/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/zhaomeng/hadoop/data</value>
</property>
</configuration>

yarn-site.xml

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

slaves

slave_centos64_2
slave_centos_3

转载于:https://my.oschina.net/igooglezm/blog/592438

Hadoop(Install)相关推荐

  1. Hadoop Install

    煮酒品茶:大晚上的,有气无力的呻吟,让你深深的感觉听我的声音是一种折磨.没录好,笔记本声音也没录好,将就着听吧.哈哈 # Install Hadoop Master # DownLoad Hadoop ...

  2. hadoop install start-dfs.sh 失败

    linux:ubuntu 16.04 LTS hadoop version: 2.7.3 JDK: java-9-open-jdk issue: start-dfs.sh start-dfs.sh:c ...

  3. [Hadoop] Install Hadoop 2.2 on Win7 64bit

    环境:win7,  64 bit, JDK7 Download the stable version 2.2.0 http://mirrors.cnnic.cn/apache/hadoop/commo ...

  4. linux Fedora搭建hadoop平台总结

    为什么80%的码农都做不了架构师?>>>    一.准备 1.用户:用root也行,或者自己建立一个新的用户都可以,但是注意所有集群采用同样的用户名以及java和hadoop相同的安 ...

  5. Hadoop集群配置(最全面总结)

    Hadoop集群配置(最全面总结) 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为Ta ...

  6. Hadoop “Unable to load native-hadoop library for y

    2019独角兽企业重金招聘Python工程师标准>>> http://devsolvd.com/questions/hadoop-unable-to-load-native-hado ...

  7. Eclipse下搭建Hadoop开发环境,并运行第一个实例

    有同学无法正常运行程序,这里将Eclipse下Hadoop环境配置进行一下说明: 1.新建Map/Reduce工程 2.设置Hadoop Locaiton,第一次使用的话,点击大象,新建配置. 3.设 ...

  8. myeclipse连接hadoop集群编程及问题解决

    原以为搭建一个本地编程测试hadoop程序的环境很简单,没想到还是做得焦头烂额,在此分享步骤和遇到的问题,希望大家顺利. 一.要实现连接hadoop集群并能够编码的目的需要做如下准备: 1.远程had ...

  9. Hadoop学习:Map/Reduce初探与小Demo实现

    一.    概念知识介绍 Hadoop MapReduce是一个用于处理海量数据的分布式计算框架.这个框架攻克了诸如数据分布式存储.作业调度.容错.机器间通信等复杂问题,能够使没有并行 处理或者分布式 ...

最新文章

  1. grub通过img文件启动linux,Linux GRUB实现双系统引导之菜鸟教程
  2. php select user 验证,php 用户验证的简单示例
  3. WinSCP中文版FTP工具 V5.19.5
  4. Sencha Architect 2 的使用
  5. python自动生成word报告_python自动化生成分析报告,让你的工作效率提升10倍+
  6. 一款可留言的恋爱计时HTML源码
  7. 集结号!四大国产开源数据库共聚申城,共话未来技术演进
  8. SHELL 003 -- ss命令常用方法
  9. 学习笔记(01):5天Python闯关训练营-103期-re模块使用案例
  10. hibernate 执行sql在哪个类_一篇文章让你马上入门Hibernate
  11. 我的WCF之旅(1):创建一个简单的WCF程序(转载)
  12. WebGIS项目中利用mysql控制点库进行千万条数据坐标转换时的分表分区优化方案...
  13. linux heartbeat rpm,linux之heartbeat高可用的简单配置
  14. dnc开源梦之队2018 开源项目精选集
  15. Repeating Decimals UVA - 202
  16. Linux安装zabbix4
  17. 软件推荐:16个你还没用过的优秀软件(多个类别)
  18. java——java删除指定文件或文件夹
  19. 使用Qpaint在图片上写文字
  20. bilibili自动挂机PHP_Bilibili数据接口整理(不定期更新)

热门文章

  1. java vuser脚本_loadrunner12中JavaVuser脚本的编写
  2. Autojs自动化 实现自动删除公众号文章(通过订阅号助手删除)
  3. 基于协同过滤算法实现选课推荐系统
  4. rust 官服指令_RUST 命令大全(包括服务器指令)
  5. iOS 关于Blocks
  6. 01python语言程序设计基础——初识python
  7. Git 中常用的 4 个命令
  8. Remove Duplicates from Sorted Array II -- LeetCode
  9. 每个程序员必看:如何在40岁后继续做软件开发?
  10. Linux进程ID号--Linux进程的管理与调度(三)