hadoop搭建部署
HDFS(Hadoop Distributed File System)和Mapreduce是hadoop的两大核心:
HDFS(文件系统)实现分布式存储的底层支持
Mapreduce(编程模型)实现分布式并行任务处理的程序支持
JobTracker 对应于 NameNode
TaskTracker 对应于 DataNode
DataNode和NameNode 是针对数据存放来而言的
JobTracker和TaskTracker是对于MapReduce执行而言的
从官网下载安装包:
wget http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
JDK安装和ssh免密码等此处不再讲述
hadoop环境变量配置:
vim /etc/profile.d/hadoop.sh
HADOOP_HOME=/usr/local/hadoop HADOOP_HEAPSIZE=2048 HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native PATH=$HADOOP_HOME/bin:$PATH HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib/native
然后主要配置下面5个配置文件:
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
slave
以上各配置文件的各项参数默认值:
http://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-common/core-default.xml
http://hadoop.apache.org/docs/r2.7.1/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
http://hadoop.apache.org/docs/r2.7.1/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
http://hadoop.apache.org/docs/r2.7.1/hadoop-yarn/hadoop-yarn-common/yarn-default.xml
vim core-site.xml 在<configuration>处添加以下部分
<configuration><property><name>fs.defaultFS</name><value>hdfs://dataMaster30:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/hadoop/tmp</value><description>Abase for other temporary directories.</description></property> <property> <name>io.file.buffer.size</name> <value>131702</value> </property> </configuration>
vim hdfs-site.xml
<configuration><property><name>dfs.namenode.secondary.http-address</name><value>dataMaster30:9001</value></property><property><name>dfs.replication</name><value>3</value></property><property><name>dfs.blocksize</name><value>512m</value></property><property><name>dfs.namenode.name.dir</name><value>file:/data/hadoop/name</value></property><property><name>dfs.datanode.data.dir</name> <value>file:/data/hadoop/hdfs</value></property><property><name>dfs.webhdfs.enabled</name><value>true</value></property> <property> <name>dfs.permissions</name> <value>false</value> </property></configuration>
vim mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>dataMaster30:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>dataMaster30:19888</value></property><property><name>mapreduce.map.memory.mb</name><value>2048</value><description>每个Map任务的物理内存限制</description></property><property><name>mapreduce.reduce.memory.mb</name><value>2048</value><description>每个Reduce任务的物理内存限制</description></property> </configuration>
vim yarn-site.xml
<configuration><property><name>yarn.resourcemanager.hostname</name><value>dataMaster30</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.resource.memory-mb</name><value>65366</value><discription>每个节点可用内存,单位MB</discription></property><property><name>yarn.scheduler.minimum-allocation-mb</name><value>2048</value><discription>单个任务可申请最少内存,默认1024MB</discription></property><property><name>yarn.scheduler.maximum-allocation-mb</name><value>16384</value><discription>单个任务可申请最大内存,默认8192MB</discription></property><property><name>yarn.nodemanager.resource.cpu-vcores</name><value>16</value><discription>cpu</discription></property> </configuration>
vim slave
#localhostdataSlave31 dataSlave32 dataSlave33 dataSlave34 dataSlave35
完成后,将配置好的Hadoop目录分发到各个slave节点对应位置上。
在Master节点服务器启动hadoop集群,从节点会自动启动,进入hadoop目录
(1)初始化,格式化Hadoop。输入命令,bin/hdfs namenode -format
(2)全部启动sbin/start-all.sh,也可以分开sbin/start-dfs.sh、sbin/start-yarn.sh
(3)停止的话,输入命令,sbin/stop-all.sh
(4)输入命令,jps,可以看到相关进程信息,从而进行验证是否启动成功。
如果输入jps出现process information unavailable提示时,这时可以进于是/tmp目录下,删除名称为hsperfdata_{username}的文件夹,然后重新启动Hadoop即可。
# jps (主节点)
1701 SecondaryNameNode
1459 NameNode
2242 Jps
1907 ResourceManager
# jps (从节点)
4520 Jps
9677 NodeManager
9526 DataNode
这时可以浏览器打开 IP:8088 和 IP:50070 就可以查看集群状态和NameNode信息了
Hadoop Shell命令:
http://blog.csdn.net/wuwenxiang91322/article/details/22166423
http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html
转载于:https://www.cnblogs.com/wjoyxt/p/5509624.html
hadoop搭建部署相关推荐
- Spark2.2.0集群搭建部署之【HADOOP集群篇】
软件准备信息,详见Spark2.2.0集群搭建部署之[软件准备篇] 基础配置信息,详见Spark2.2.0集群搭建部署之[基础配置篇] SSH无密访问,详见park2.2.0集群搭建部署之[无密访问篇 ...
- Spark集群基于Zookeeper的HA搭建部署笔记(转)
原文链接:Spark集群基于Zookeeper的HA搭建部署笔记 1.环境介绍 (1)操作系统RHEL6.2-64 (2)两个节点:spark1(192.168.232.147),spark2(192 ...
- hadoop搭建伪分布式集群(centos7+hadoop-3.1.1)
原文地址:https://www.cnblogs.com/zhengna/p/9316424.html Hadoop三种安装模式 搭建伪分布式集群准备条件 第一部分 安装前部署 1.查看虚拟机版本 2 ...
- Hadoop搭建、环境配置
前期准备: 1.安装虚拟机 2.安装CentOS 7(注意这里选择最小安装,稍后还要克隆) 备注:http://blog.csdn.net/qq_32297447/article/details/79 ...
- Ubuntu18.04 Hadoop 搭建
Ubuntu18.04 Hadoop 搭建 一.操作环境 1.1 操作系统:Windows 10 64位 1.2 虚拟机:VMware Workstation Pro 14.1.2 二.安装包 2.1 ...
- 单服务器hadoop搭建
title: 单服务器hadoop搭建 date: 2017-12-21 11:14:03 tags: hadoop 服务器 category: hadoop hadoop单机版搭建,即只有一台服务器 ...
- Spark2.2.0集群搭建部署之【软件准备篇】
本文主要展示如何在虚拟机上搭建部署Spark2.2.0的详细步骤,包括环境安装.无密登录.Hadoop集群,Spark集群. 需要准备的软件为: VMware-WorkStation CentOS-7 ...
- 企业级监控软件Zabbix搭建部署之使用mutt+msmtp配置Zabbix邮件报警
企业级监控软件Zabbix搭建部署之使用mutt+msmtp配置Zabbix邮件报警 [root@Zabbix-Server ~]# wget http://nchc.dl.sourceforge.n ...
- Nginx搭建部署Web服务器并与NFS结合搭建负载均衡服务器
Nginx搭建部署Web服务器并与NFS结合搭建负载均衡服务器 一.搭建NginxWeb服务器 此种方式是用yum安装Nginx,为保证安装成功需在安装之前提前安装epel扩展源. 用 ...
- hadoop安装部署(伪分布及集群)
hadoop安装部署(伪分布及集群) @(HADOOP)[hadoop] hadoop安装部署伪分布及集群 第一部分伪分布式 一环境准备 二安装hdfs 三安装YARN 第二部分集群安装 一规划 一硬 ...
最新文章
- oauth2 增加token 返回参数_RingCentral Tech | OAuth2.0面面观
- Windows Internals 笔记——错误处理
- webpack基础第一篇(配置文件)
- CodeForces - 1454F Array Partition(线段树+二分)
- 理解Prefix.pch文件
- SOJ 2800_三角形
- pl/sql developer 中文字段显示乱码
- python 枚举类型_Python枚举类
- 需要c语言,需要C语言的需要什么工具软件
- 在NHibernate的单表继承模式下通过父类Repository查询子类
- 操作系统 第二部分 进程管理(一)
- 数据中心节能制冷系统分析
- 【POJ2774】Long Long Message(求两个字符串的最长公共子串----后缀数组)
- 免费开源51单片机个人课程设计--基于stc89c52及红外遥控的测温智能电风扇
- 转载:MHL原理剖析
- Windows命令行打开常用设置/控制面板功能
- s32k1xx的FLASH学习笔记Flash Memory Module (FTFC)
- 如何打造一个语音聊天室
- 51CTO学习笔记--Linux运维故障排查思路与系统调优技巧视频课程(高俊峰)
- 用vb编写websocket客户端示例(每秒百万弹幕吞吐量)