Hadoop(Install)
2019独角兽企业重金招聘Python工程师标准>>>
安装目标:一个namenode 和 2 个datanode,假定已用户名zhaomeng和密码zhaomeng进行
虚拟机:3个centos 64(桥接模式)
1.192.168.203.129 master_centos64_12.192.168.203.130 slave_centos64_23.192.168.203.138 slave_centos_3
准备工作:
1.启动三个虚拟机master_centos64_1
2.检查ssh是否安装和sshd是否启动(可否互相ssh,端口号默认是22)
3.若想配置好记的机器名,可以sudo vi /etc/hostname将HOSTNAME改成自己喜欢的
4.若想只用机器名,可以sudo vi /etc/hosts更改路由表 (hosts文件优先于路由器)
5.(optional)检查防火墙iptable
6.在三台机器上创建相同用户,如zhaomeng, 加入sudoers列表和root用户组
a.useradd -G root zhaomeng
b.sudovi /etc/sudoers 正加root类似的一行
root ALL(ALL) ALLzhaomeng ALL(ALL) ALL
7.配置用户zhaomeng在三台机器相互间免密码ssh
a.(master1)cd /home/zhaomeng
b.(master1)ssh-keygen之后直接3个回车或者ssh-keygen -t rsa -P '' (在主目录生成.ssh/idrsa和.ssh、id_rsa.pub)
c.(master1)cat .ssh/id_rsa.pub >> .ssh/authorized_keys
d.(slave2和slave3)执行ab并将id_rsa.pub文件均scp至master1,并执行c
e.(master1)将包含3个公钥的authorized_keys文件scp至slave2和slave3
f.(master1,slave2,slave3)chmod 600 .ssh/authorized_keys(非常重要,否则不起效)
g.(master1,slave2,slave3)三台机器之间相互测试时候可以无密码ssh (第一次均需要确认是否记住凭证,选择yes)
8.(master1,slave2,slave3)下载和安装JDK7,并设置必要的JAVA_HOME和PATH变量
9.(master1)下载hadoop2.6.3,解压至/home/zhaomeng/hadoop263 (hadoop263下路目录为bin sbin etc libexec lib 等)
10.(master1,slave2,slave3)设置环境变量
vi /etc/profile 加入如下内容
export JAVA_HOME=/usr/java/default
export HADOOP_HOME=/home/zhaomeng/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_LIBEXEC_DIR=$HADOOP_HOME/libexec
export PATH=$JAVA_HOME/bin:$PATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
并使之生效source /etc/profile
11.(master1)配置HADOOP_HOME/etc/hadoop/core.site.xml hdfs.site.xml yarn.site.xml (mapred-site.xml) slaves 以及hadoop-sne.sh和yarn-env.sh (两个sh文件主要是加入JAVA_HOME变量)
12.(master1)mkdir logs tmp data
13.(master1)将HADOOP_HOME整个文件夹scp至slave2和slave3,并保持和master1一样的目录结构
14.(master1)格式化namenode,执行HADOOP_HOME/bin/hdfs namenode -format
15.(master1)启动hdfs,执行HADOOP_HOME/sbin/start-dfs.sh
16.(master1)启动yarn,执行HADOOP_HOME/sbin/start-yarn.sh
17.几个网址
http://master1:8088/
http://master1:50070/
18.待续
附录几个文件
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.203.129:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/zhaomeng/hadoop/tmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.webhdfs.enable</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.ipc.address </name>
<value>0.0.0.0:50020</value>
</property>
<property>
<name>dfs.datanode.http.address</name>
<value>0.0.0.0:50075</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/zhaomeng/hadoop/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/zhaomeng/hadoop/data</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
slaves
slave_centos64_2
slave_centos_3
转载于:https://my.oschina.net/igooglezm/blog/592438
Hadoop(Install)相关推荐
- Hadoop Install
煮酒品茶:大晚上的,有气无力的呻吟,让你深深的感觉听我的声音是一种折磨.没录好,笔记本声音也没录好,将就着听吧.哈哈 # Install Hadoop Master # DownLoad Hadoop ...
- hadoop install start-dfs.sh 失败
linux:ubuntu 16.04 LTS hadoop version: 2.7.3 JDK: java-9-open-jdk issue: start-dfs.sh start-dfs.sh:c ...
- [Hadoop] Install Hadoop 2.2 on Win7 64bit
环境:win7, 64 bit, JDK7 Download the stable version 2.2.0 http://mirrors.cnnic.cn/apache/hadoop/commo ...
- linux Fedora搭建hadoop平台总结
为什么80%的码农都做不了架构师?>>> 一.准备 1.用户:用root也行,或者自己建立一个新的用户都可以,但是注意所有集群采用同样的用户名以及java和hadoop相同的安 ...
- Hadoop集群配置(最全面总结)
Hadoop集群配置(最全面总结) 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为Ta ...
- Hadoop “Unable to load native-hadoop library for y
2019独角兽企业重金招聘Python工程师标准>>> http://devsolvd.com/questions/hadoop-unable-to-load-native-hado ...
- Eclipse下搭建Hadoop开发环境,并运行第一个实例
有同学无法正常运行程序,这里将Eclipse下Hadoop环境配置进行一下说明: 1.新建Map/Reduce工程 2.设置Hadoop Locaiton,第一次使用的话,点击大象,新建配置. 3.设 ...
- myeclipse连接hadoop集群编程及问题解决
原以为搭建一个本地编程测试hadoop程序的环境很简单,没想到还是做得焦头烂额,在此分享步骤和遇到的问题,希望大家顺利. 一.要实现连接hadoop集群并能够编码的目的需要做如下准备: 1.远程had ...
- Hadoop学习:Map/Reduce初探与小Demo实现
一. 概念知识介绍 Hadoop MapReduce是一个用于处理海量数据的分布式计算框架.这个框架攻克了诸如数据分布式存储.作业调度.容错.机器间通信等复杂问题,能够使没有并行 处理或者分布式 ...
最新文章
- grub通过img文件启动linux,Linux GRUB实现双系统引导之菜鸟教程
- php select user 验证,php 用户验证的简单示例
- WinSCP中文版FTP工具 V5.19.5
- Sencha Architect 2 的使用
- python自动生成word报告_python自动化生成分析报告,让你的工作效率提升10倍+
- 一款可留言的恋爱计时HTML源码
- 集结号!四大国产开源数据库共聚申城,共话未来技术演进
- SHELL 003 -- ss命令常用方法
- 学习笔记(01):5天Python闯关训练营-103期-re模块使用案例
- hibernate 执行sql在哪个类_一篇文章让你马上入门Hibernate
- 我的WCF之旅(1):创建一个简单的WCF程序(转载)
- WebGIS项目中利用mysql控制点库进行千万条数据坐标转换时的分表分区优化方案...
- linux heartbeat rpm,linux之heartbeat高可用的简单配置
- dnc开源梦之队2018 开源项目精选集
- Repeating Decimals UVA - 202
- Linux安装zabbix4
- 软件推荐:16个你还没用过的优秀软件(多个类别)
- java——java删除指定文件或文件夹
- 使用Qpaint在图片上写文字
- bilibili自动挂机PHP_Bilibili数据接口整理(不定期更新)