1.将hadoop包解压放到/opt/hadoop下

2.配置

2.1.进入hadoop目录
2.2.编辑hadoop.env.sh文件 配置jdk环境变量

    #vi etc/hadoop/hadoop-env.sh

内容修改如下 具体地址根据服务器环境配置

        export JAVA_HOME=/usr/lib/jvm/java/    

3.配置yarn环境变量

3.1.编辑yarn-env.sh文件 配置jdk环境

    #vi etc/hadoop/yarn-env.sh

内容修改如下 具体地址根据服务器环境配置

        export JAVA_HOME=/usr/lib/jvm/java/    

4.配置核心组件文件

4.1.编辑core-site.xml文件

        #vi etc/hadoop/core-site.xml

文件内容

            <configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>/opt/hadoopdata</value>   //hdfs数据存放地址 根据自己设置更改</property></configuration>

5.配置系统文件

5.1.编辑hdfs-site.xml文件

            #vi etc/hadoop/hdfs-site.xml

内容如下

                <configuration><preperty><name>dfs.http.address</name>  //hdfs 网页监控地址配置<value>master:50070</value>     //http://master:50070<name>dfs.replication</name>    //hdfs 副本数量 最大不超过3<value>1</value> </preperty></configuration>.

6.配置yam-site.xml

6.1.编辑yam-site.xml

        $vi etc/hadoop/yarn-site.xml内容如下<configuration><!-- Site specific YARN configuration properties --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>master:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:18030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:18025</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:18088</value></property><property><name>yarn.scheduler.minimum-allocation-mb</name>## 虚拟内存设置太少才造成类似的错误<value>2000</value></property><property><name>yarn.scheduler.maximum-allocation-mb</name>## 虚拟内存设置太少才造成类似的错误<value>3000</value></property></configuration>

7.配置MapReduce计算矿建文件

7.1.将mapred-site.xml.template 文件复制一份 命名 mapred-site.xml

        $cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

7.2.编辑mapred-site.xml 内容

        $vi etc/hadoop/mapred-site.xml内容如下<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>

8.配置Master 的slaves文件

8.1.编辑slaves文件

        $vi etc/hadoop/slaves

内容更改为

            slave0     //映射的子服务器1slave1    //映射自服务器2

9.将hadoop 复制子节点

$scp -r Hadoop 登陆名@slave0:/opt/Hadoop
$scp -r Hadoop 登陆名@slave1:/opt/Hadoop

10.配置环境变量

$sudo vi ~/.bash_profile 

增加内容

        //java环境变量export JAVA_HOME=/usr/lib/jvm/javaexport PATH=$JAVA_HOME/bin:$PATH//hadoop环境变量export HADOOP_HOME=/opt/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

10.2.刷新环境变量

        $source ~/.bash_profile

11创建hadoop数据目录

11.1.在core-site.xml文件中有配置数据地址

        $ sudo mkdir /opt/hadoopdata  (所有服务器)

11.2.初始化文件系统

        $hdfs namenode -format(master服务器)

12.开启关闭

12.1.使用sbin/start-all.sh 启动 sbin/stop-all.sh关闭 (不建议使用)

12.2.使用sbin/start-dfs.sh 启动hdfs
启动yarn

          sbin/start-yarn.sh 

关闭

        sbin/stop-yarn.shsbin/stop-dfs.sh(注意先后顺序)

测试启动是否成功

    $jps

master服务器会出现

        17728 SecondaryNameNode18249 Jps17455 NameNode17951 ResourceManager

slave服务器会出现

        16500 Jps16121 DataNode16284 NodeManager

这样属于启动成功

访问 http://master:50070 查看系统状况

访问http://master:18088 查看yarn 运行情况

13.hdfs基本命令

13.1.创建目录 在hdf容器中创建

        $hdfs fs -mkdir /test

13.2.查看文件列表

        $hdfs fs -ls /

13.3上传文件到hdfs

        $hdfs fs -put 本地路径  hdfs路径

13.4.将hdfs文件下载到本地

        $hdfs fs -get hdfs路径  本地路径

13.5.查看文件内容

        $hdfs fs -cat 文件路径

13.6.删除文件

        $hdfs fs -rm 路径

14在hadoop中运行程序

14.1.系统默认提供计算圆周率的java程序

        路径:share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar 运行:$hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar  pi 10 10

2.Hadoop HDFS 安装配置相关推荐

  1. Hadoop的安装配置

    Hadoop的安装配置 登录Hadoop官网(http://hadoop.apache.org/releases.html) 下载Hadoop 2.6.0安装包hadoop-2.6.0.tar.gz. ...

  2. 新的比较详细的hive安装教程,包含:hadoop的安装配置,hive安装详细教程,大数据下hive详细配置和简单使用和hive元数据迁移相关安装配置操作

    简介:这是大数据里安装hive比较详细的教程,包括安装hive时hadoop的相关配置,hive安装,hive 之后的mysql安装,hive的元素配置到mysql相关配置,hive常见属性的相关配置 ...

  3. linux hadoop etc目录,题目Linux平台下Hadoop的安装配置

    1Linux平台下Hadoop的安装配置 以下操作均是在虚拟机VWMare10.0平台上安装ubuntu12.04实现.首先要在ubuntu下穿件Hadoop用户. Ubuntulinux查看系统版本 ...

  4. hadoop hdfs 单机配置

    hadoop的配置文件在:/root/apps/hadoop安装目录/etc/hadoop/ 1.修改hadoop-env.sh,配置java环境变量 export JAVA_HOME=/usr/lo ...

  5. Hadoop Hbase安装配置

    数据库 描述 Mysql sql,事务处理,增删改查, HIVE sql,数据仓库,存储和查询一般不修改,容量大(hdfs),计算能力强(mr) Hbase nosql,事务处理,增删改查 Hbase ...

  6. Hadoop HIVE 安装配置(单机集群)

    hive配置只与mysql有关,会自动根据hadoop_home来找数据,所以不必配置相应的datanode和namenode,也不必管单机还是集群 解析SQL语法,组装成一个mapreduce jo ...

  7. Hadoop集群搭建(六:HBase的安装配置)

    实验 目的 要求 目的: 1.HBase的高可用完全分布模式的安装和验证 要求: 完成HBase的高可用完全分布模式的安装: HBase的相关服务进程能够正常的启动: HBase控制台能够正常使用: ...

  8. 开启hadoop之旅的大门–安装配置篇

    by 三江小渡 主要写了JDK配置和hadoop的安装配置.windows下安装也类似,只是需要一个windows模拟linux环境的软件Cygwin.不过在windows下安装JDK很方便了,就不用 ...

  9. Win8下安装配置Docker ToolBox并制作镜像配置Handoop集群

    1.安装Docker ToolBox 参考1:https://www.cnblogs.com/weschen/p/6697926.html Oracle   VirtualBox.Git和Kitema ...

最新文章

  1. java 修饰符 访问控制符_Java访问修饰符(访问控制符)
  2. 现代软件工程 来自卓越大学教师的建议 (读书笔记)
  3. 使用js简单实现javaMap
  4. Codeforces 699D Fix a Tree 并查集
  5. ijkplayer-音视频变速播放实现
  6. Scanner--控制台输入
  7. 【图像配准】基于灰度的模板匹配算法(一):MAD、SAD、SSD、MSD、NCC、SSDA、SATD算法...
  8. 2018 Multi-University Training Contest 10 hdu 6432 Problem G. Cyclic(oeis题)
  9. VOC2007/2012数据集解析
  10. Fall 2020 Berkeley cs61a Projects cats答案
  11. 影像自动解译_遥感影像的解译-分类
  12. 华为鸿蒙系统是安卓套壳?直接看代码
  13. Python lambda表达式用法
  14. element框架el-aside高度100%显示
  15. C# 浅拷贝与深拷贝
  16. asp.net视频教程于海涛
  17. 义乌个体户外汇账户办理流程
  18. Libvirt学习总结
  19. Android经典蓝牙
  20. curl命令使用digest方式验证用户

热门文章

  1. mkdir 与mkdir -p 区别
  2. go子串查询,子串统计,开始和结尾判断
  3. 期刊投稿状态_这些SCI期刊的投稿显示状态是什么意思?
  4. oracle上浮下浮分析函数_Oracle分析函数简析
  5. 刷新mac地址命令_常用网络检测命令-必备技术
  6. 华为android强刷系统下载地址,华为P6S官方rom固件刷机包下载_华为P6S原版系统强刷升级包...
  7. js <->java 时区处理
  8. SQLAlchemy Connection
  9. 前端-requests-flask对应关系 HTTPBasicAuth
  10. Oracle NetSuite:异军突起的云原生ERP