2.Hadoop HDFS 安装配置
1.将hadoop包解压放到/opt/hadoop下
2.配置
2.1.进入hadoop目录
2.2.编辑hadoop.env.sh文件 配置jdk环境变量
#vi etc/hadoop/hadoop-env.sh
内容修改如下 具体地址根据服务器环境配置
export JAVA_HOME=/usr/lib/jvm/java/
3.配置yarn环境变量
3.1.编辑yarn-env.sh文件 配置jdk环境
#vi etc/hadoop/yarn-env.sh
内容修改如下 具体地址根据服务器环境配置
export JAVA_HOME=/usr/lib/jvm/java/
4.配置核心组件文件
4.1.编辑core-site.xml文件
#vi etc/hadoop/core-site.xml
文件内容
<configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/opt/hadoopdata</value> //hdfs数据存放地址 根据自己设置更改</property></configuration>
5.配置系统文件
5.1.编辑hdfs-site.xml文件
#vi etc/hadoop/hdfs-site.xml
内容如下
<configuration><preperty><name>dfs.http.address</name> //hdfs 网页监控地址配置<value>master:50070</value> //http://master:50070<name>dfs.replication</name> //hdfs 副本数量 最大不超过3<value>1</value> </preperty></configuration>.
6.配置yam-site.xml
6.1.编辑yam-site.xml
$vi etc/hadoop/yarn-site.xml内容如下<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>master:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:18030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:18025</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:18088</value></property><property><name>yarn.scheduler.minimum-allocation-mb</name>## 虚拟内存设置太少才造成类似的错误<value>2000</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name>## 虚拟内存设置太少才造成类似的错误<value>3000</value></property></configuration>
7.配置MapReduce计算矿建文件
7.1.将mapred-site.xml.template 文件复制一份 命名 mapred-site.xml
$cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
7.2.编辑mapred-site.xml 内容
$vi etc/hadoop/mapred-site.xml内容如下<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>
8.配置Master 的slaves文件
8.1.编辑slaves文件
$vi etc/hadoop/slaves
内容更改为
slave0 //映射的子服务器1slave1 //映射自服务器2
9.将hadoop 复制子节点
$scp -r Hadoop 登陆名@slave0:/opt/Hadoop
$scp -r Hadoop 登陆名@slave1:/opt/Hadoop
10.配置环境变量
$sudo vi ~/.bash_profile
增加内容
//java环境变量export JAVA_HOME=/usr/lib/jvm/javaexport PATH=$JAVA_HOME/bin:$PATH//hadoop环境变量export HADOOP_HOME=/opt/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
10.2.刷新环境变量
$source ~/.bash_profile
11创建hadoop数据目录
11.1.在core-site.xml文件中有配置数据地址
$ sudo mkdir /opt/hadoopdata (所有服务器)
11.2.初始化文件系统
$hdfs namenode -format(master服务器)
12.开启关闭
12.1.使用sbin/start-all.sh 启动 sbin/stop-all.sh关闭 (不建议使用)
12.2.使用sbin/start-dfs.sh 启动hdfs
启动yarn
sbin/start-yarn.sh
关闭
sbin/stop-yarn.shsbin/stop-dfs.sh(注意先后顺序)
测试启动是否成功
$jps
master服务器会出现
17728 SecondaryNameNode18249 Jps17455 NameNode17951 ResourceManager
slave服务器会出现
16500 Jps16121 DataNode16284 NodeManager
这样属于启动成功
访问 http://master:50070 查看系统状况
访问http://master:18088 查看yarn 运行情况
13.hdfs基本命令
13.1.创建目录 在hdf容器中创建
$hdfs fs -mkdir /test
13.2.查看文件列表
$hdfs fs -ls /
13.3上传文件到hdfs
$hdfs fs -put 本地路径 hdfs路径
13.4.将hdfs文件下载到本地
$hdfs fs -get hdfs路径 本地路径
13.5.查看文件内容
$hdfs fs -cat 文件路径
13.6.删除文件
$hdfs fs -rm 路径
14在hadoop中运行程序
14.1.系统默认提供计算圆周率的java程序
路径:share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar 运行:$hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar pi 10 10
2.Hadoop HDFS 安装配置相关推荐
- Hadoop的安装配置
Hadoop的安装配置 登录Hadoop官网(http://hadoop.apache.org/releases.html) 下载Hadoop 2.6.0安装包hadoop-2.6.0.tar.gz. ...
- 新的比较详细的hive安装教程,包含:hadoop的安装配置,hive安装详细教程,大数据下hive详细配置和简单使用和hive元数据迁移相关安装配置操作
简介:这是大数据里安装hive比较详细的教程,包括安装hive时hadoop的相关配置,hive安装,hive 之后的mysql安装,hive的元素配置到mysql相关配置,hive常见属性的相关配置 ...
- linux hadoop etc目录,题目Linux平台下Hadoop的安装配置
1Linux平台下Hadoop的安装配置 以下操作均是在虚拟机VWMare10.0平台上安装ubuntu12.04实现.首先要在ubuntu下穿件Hadoop用户. Ubuntulinux查看系统版本 ...
- hadoop hdfs 单机配置
hadoop的配置文件在:/root/apps/hadoop安装目录/etc/hadoop/ 1.修改hadoop-env.sh,配置java环境变量 export JAVA_HOME=/usr/lo ...
- Hadoop Hbase安装配置
数据库 描述 Mysql sql,事务处理,增删改查, HIVE sql,数据仓库,存储和查询一般不修改,容量大(hdfs),计算能力强(mr) Hbase nosql,事务处理,增删改查 Hbase ...
- Hadoop HIVE 安装配置(单机集群)
hive配置只与mysql有关,会自动根据hadoop_home来找数据,所以不必配置相应的datanode和namenode,也不必管单机还是集群 解析SQL语法,组装成一个mapreduce jo ...
- Hadoop集群搭建(六:HBase的安装配置)
实验 目的 要求 目的: 1.HBase的高可用完全分布模式的安装和验证 要求: 完成HBase的高可用完全分布模式的安装: HBase的相关服务进程能够正常的启动: HBase控制台能够正常使用: ...
- 开启hadoop之旅的大门–安装配置篇
by 三江小渡 主要写了JDK配置和hadoop的安装配置.windows下安装也类似,只是需要一个windows模拟linux环境的软件Cygwin.不过在windows下安装JDK很方便了,就不用 ...
- Win8下安装配置Docker ToolBox并制作镜像配置Handoop集群
1.安装Docker ToolBox 参考1:https://www.cnblogs.com/weschen/p/6697926.html Oracle VirtualBox.Git和Kitema ...
最新文章
- java 修饰符 访问控制符_Java访问修饰符(访问控制符)
- 现代软件工程 来自卓越大学教师的建议 (读书笔记)
- 使用js简单实现javaMap
- Codeforces 699D Fix a Tree 并查集
- ijkplayer-音视频变速播放实现
- Scanner--控制台输入
- 【图像配准】基于灰度的模板匹配算法(一):MAD、SAD、SSD、MSD、NCC、SSDA、SATD算法...
- 2018 Multi-University Training Contest 10 hdu 6432 Problem G. Cyclic(oeis题)
- VOC2007/2012数据集解析
- Fall 2020 Berkeley cs61a Projects cats答案
- 影像自动解译_遥感影像的解译-分类
- 华为鸿蒙系统是安卓套壳?直接看代码
- Python lambda表达式用法
- element框架el-aside高度100%显示
- C# 浅拷贝与深拷贝
- asp.net视频教程于海涛
- 义乌个体户外汇账户办理流程
- Libvirt学习总结
- Android经典蓝牙
- curl命令使用digest方式验证用户
热门文章
- mkdir 与mkdir -p 区别
- go子串查询,子串统计,开始和结尾判断
- 期刊投稿状态_这些SCI期刊的投稿显示状态是什么意思?
- oracle上浮下浮分析函数_Oracle分析函数简析
- 刷新mac地址命令_常用网络检测命令-必备技术
- 华为android强刷系统下载地址,华为P6S官方rom固件刷机包下载_华为P6S原版系统强刷升级包...
- js <->java 时区处理
- SQLAlchemy Connection
- 前端-requests-flask对应关系 HTTPBasicAuth
- Oracle NetSuite:异军突起的云原生ERP