HDFS(Hadoop Distributed File System)和Mapreduce是hadoop的两大核心:

HDFS(文件系统)实现分布式存储的底层支持

Mapreduce(编程模型)实现分布式并行任务处理的程序支持

JobTracker   对应于 NameNode

TaskTracker 对应于 DataNode

DataNode和NameNode   是针对数据存放来而言的

JobTracker和TaskTracker是对于MapReduce执行而言的

从官网下载安装包:

wget  http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz

JDK安装和ssh免密码等此处不再讲述

hadoop环境变量配置:

vim /etc/profile.d/hadoop.sh

HADOOP_HOME=/usr/local/hadoop
HADOOP_HEAPSIZE=2048
HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
PATH=$HADOOP_HOME/bin:$PATH
HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib/native

然后主要配置下面5个配置文件:

core-site.xml

hdfs-site.xml

mapred-site.xml

yarn-site.xml

slave

以上各配置文件的各项参数默认值:

http://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-common/core-default.xml

http://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

http://hadoop.apache.org/docs/r2.7.1/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

http://hadoop.apache.org/docs/r2.7.1/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

vim core-site.xml 在<configuration>处添加以下部分

<configuration><property><name>fs.defaultFS</name><value>hdfs://dataMaster30:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>Abase for other temporary directories.</description></property>     <property>         <name>io.file.buffer.size</name>         <value>131702</value>     </property>
</configuration>

vim hdfs-site.xml

<configuration><property><name>dfs.namenode.secondary.http-address</name><value>dataMaster30:9001</value></property><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.blocksize</name><value>512m</value></property><property><name>dfs.namenode.name.dir</name><value>file:/data/hadoop/name</value></property><property><name>dfs.datanode.data.dir</name> <value>file:/data/hadoop/hdfs</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property>         <property>             <name>dfs.permissions</name>             <value>false</value>       </property></configuration>

vim mapred-site.xml

<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>dataMaster30:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>dataMaster30:19888</value></property><property><name>mapreduce.map.memory.mb</name><value>2048</value><description>每个Map任务的物理内存限制</description></property><property><name>mapreduce.reduce.memory.mb</name><value>2048</value><description>每个Reduce任务的物理内存限制</description></property>
</configuration>

vim yarn-site.xml

<configuration><property><name>yarn.resourcemanager.hostname</name><value>dataMaster30</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>65366</value><discription>每个节点可用内存,单位MB</discription></property><property><name>yarn.scheduler.minimum-allocation-mb</name><value>2048</value><discription>单个任务可申请最少内存,默认1024MB</discription></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>16384</value><discription>单个任务可申请最大内存,默认8192MB</discription></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>16</value><discription>cpu</discription></property>
</configuration>

vim slave

#localhostdataSlave31
dataSlave32
dataSlave33
dataSlave34
dataSlave35

完成后,将配置好的Hadoop目录分发到各个slave节点对应位置上。

在Master节点服务器启动hadoop集群,从节点会自动启动,进入hadoop目录
(1)初始化,格式化Hadoop。输入命令,bin/hdfs namenode -format
(2)全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.sh、sbin/start-yarn.sh
(3)停止的话,输入命令,sbin/stop-all.sh
(4)输入命令,jps,可以看到相关进程信息,从而进行验证是否启动成功。

如果输入jps出现process information unavailable提示时,这时可以进于是/tmp目录下,删除名称为hsperfdata_{username}的文件夹,然后重新启动Hadoop即可。

# jps (主节点)

1701 SecondaryNameNode
1459 NameNode
2242 Jps
1907 ResourceManager

# jps (从节点)

4520 Jps
9677 NodeManager
9526 DataNode

这时可以浏览器打开 IP:8088 和 IP:50070 就可以查看集群状态和NameNode信息了

Hadoop Shell命令:

http://blog.csdn.net/wuwenxiang91322/article/details/22166423

http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html

转载于:https://www.cnblogs.com/wjoyxt/p/5509624.html

hadoop搭建部署相关推荐

  1. Spark2.2.0集群搭建部署之【HADOOP集群篇】

    软件准备信息,详见Spark2.2.0集群搭建部署之[软件准备篇] 基础配置信息,详见Spark2.2.0集群搭建部署之[基础配置篇] SSH无密访问,详见park2.2.0集群搭建部署之[无密访问篇 ...

  2. Spark集群基于Zookeeper的HA搭建部署笔记(转)

    原文链接:Spark集群基于Zookeeper的HA搭建部署笔记 1.环境介绍 (1)操作系统RHEL6.2-64 (2)两个节点:spark1(192.168.232.147),spark2(192 ...

  3. hadoop搭建伪分布式集群(centos7+hadoop-3.1.1)

    原文地址:https://www.cnblogs.com/zhengna/p/9316424.html Hadoop三种安装模式 搭建伪分布式集群准备条件 第一部分 安装前部署 1.查看虚拟机版本 2 ...

  4. Hadoop搭建、环境配置

    前期准备: 1.安装虚拟机 2.安装CentOS 7(注意这里选择最小安装,稍后还要克隆) 备注:http://blog.csdn.net/qq_32297447/article/details/79 ...

  5. Ubuntu18.04 Hadoop 搭建

    Ubuntu18.04 Hadoop 搭建 一.操作环境 1.1 操作系统:Windows 10 64位 1.2 虚拟机:VMware Workstation Pro 14.1.2 二.安装包 2.1 ...

  6. 单服务器hadoop搭建

    title: 单服务器hadoop搭建 date: 2017-12-21 11:14:03 tags: hadoop 服务器 category: hadoop hadoop单机版搭建,即只有一台服务器 ...

  7. Spark2.2.0集群搭建部署之【软件准备篇】

    本文主要展示如何在虚拟机上搭建部署Spark2.2.0的详细步骤,包括环境安装.无密登录.Hadoop集群,Spark集群. 需要准备的软件为: VMware-WorkStation CentOS-7 ...

  8. 企业级监控软件Zabbix搭建部署之使用mutt+msmtp配置Zabbix邮件报警

    企业级监控软件Zabbix搭建部署之使用mutt+msmtp配置Zabbix邮件报警 [root@Zabbix-Server ~]# wget http://nchc.dl.sourceforge.n ...

  9. Nginx搭建部署Web服务器并与NFS结合搭建负载均衡服务器

    Nginx搭建部署Web服务器并与NFS结合搭建负载均衡服务器 一.搭建NginxWeb服务器     此种方式是用yum安装Nginx,为保证安装成功需在安装之前提前安装epel扩展源.     用 ...

  10. hadoop安装部署(伪分布及集群)

    hadoop安装部署(伪分布及集群) @(HADOOP)[hadoop] hadoop安装部署伪分布及集群 第一部分伪分布式 一环境准备 二安装hdfs 三安装YARN 第二部分集群安装 一规划 一硬 ...

最新文章

  1. oauth2 增加token 返回参数_RingCentral Tech | OAuth2.0面面观
  2. Windows Internals 笔记——错误处理
  3. webpack基础第一篇(配置文件)
  4. CodeForces - 1454F Array Partition(线段树+二分)
  5. 理解Prefix.pch文件
  6. SOJ 2800_三角形
  7. pl/sql developer 中文字段显示乱码
  8. python 枚举类型_Python枚举类
  9. 需要c语言,需要C语言的需要什么工具软件
  10. 在NHibernate的单表继承模式下通过父类Repository查询子类
  11. 操作系统 第二部分 进程管理(一)
  12. 数据中心节能制冷系统分析
  13. 【POJ2774】Long Long Message(求两个字符串的最长公共子串----后缀数组)
  14. 免费开源51单片机个人课程设计--基于stc89c52及红外遥控的测温智能电风扇
  15. 转载:MHL原理剖析
  16. Windows命令行打开常用设置/控制面板功能
  17. s32k1xx的FLASH学习笔记Flash Memory Module (FTFC)
  18. 如何打造一个语音聊天室
  19. 51CTO学习笔记--Linux运维故障排查思路与系统调优技巧视频课程(高俊峰)
  20. 用vb编写websocket客户端示例(每秒百万弹幕吞吐量)

热门文章

  1. 【ACL2021】三篇高质量方面级的情感分析方法解读
  2. 使用辅助任务来提升情感分类领域适应
  3. fastText:极快的文本分类工具
  4. 论文赏析[ACL18]基于Self-Attentive的成分句法分析
  5. python—符号 | ^的使用
  6. leetcode—16.两数相加链表python解答
  7. 深度学习TF—13.对抗生成网络—GAN
  8. 深度学习2.0-1.tensorflow的基础操作之数据类型
  9. 达观杯文本智能处理(2)
  10. 图神经网络在生化医疗方面的相关应用