1. 准备虚拟机:linux-rhel-7.4-server,由于不使用虚拟机进行联网,所以选择host-only网络模式。此处,需要再VitralBox的管理菜单中的主机网络管理器新建一个虚拟网卡。安装完成虚拟机之后,默认网卡是关闭的,需要进行开启,指令如下:

    [root@hadoop-01 network-scripts]# vi ifcfg-enp0s3 #默认网卡配置
    TYPE=Ethernet
    PROXY_METHOD=none
    BROWSER_ONLY=no
    BOOTPROTO=dhcp
    DEFROUTE=yes
    IPV4_FAILURE_FATAL=no
    IPV6INIT=yes
    IPV6_AUTOCONF=yes
    IPV6_DEFROUTE=yes
    IPV6_FAILURE_FATAL=no
    IPV6_ADDR_GEN_MODE=stable-privacy
    NAME=enp0s3
    UUID=9e448496-ecd5-4122-a91f-91f91bd15f5e
    DEVICE=enp0s3
    ONBOOT=yes #修改为 yes,默认是no然后重启虚拟机

  2. 此时再来查看本机网络配置如下,就可以与宿主机的同网段的虚拟网卡进行通讯了,如果宿主机启用的网络共享,那么可以让虚拟机进行联网
    [root@hadoop-01 network-scripts]# ifconfig
    enp0s3: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500 #已经有IP分配进来inet 192.168.56.101  netmask 255.255.255.0  broadcast 192.168.56.255inet6 fe80::bcf9:1d0d:e75d:500f  prefixlen 64  scopeid 0x20<link>ether 08:00:27:fb:11:51  txqueuelen 1000  (Ethernet)RX packets 5763894  bytes 8204104505 (7.6 GiB)RX errors 0  dropped 0  overruns 0  frame 0TX packets 310622  bytes 23522131 (22.4 MiB)TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0lo: flags=73<UP,LOOPBACK,RUNNING>  mtu 65536inet 127.0.0.1  netmask 255.0.0.0inet6 ::1  prefixlen 128  scopeid 0x10<host>loop  txqueuelen 1  (Local Loopback)RX packets 1698  bytes 134024 (130.8 KiB)RX errors 0  dropped 0  overruns 0  frame 0TX packets 1698  bytes 134024 (130.8 KiB)TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

  3. 上传准备好的程序包
    ZBMAC-C03VQ091H:实验介质 hadoop$ ls
    ZooInspector.zip                        mysql-5.7.19-1.el7.x86_64.rpm-bundle.tar
    ZooViewer.zip                           mysql-connector-java-5.1.43-bin.jar
    apache-flume-1.7.0-bin.tar.gz           pig-0.17.0.tar.gz
    apache-hive-2.3.0-bin.tar.gz            sqoop-1.4.5.bin__hadoop-0.23.tar.gz
    hadoop-2.7.3.tar.gz                     virtualbox
    hbase-1.3.1-bin.tar.gz                  winscp513setup.exe
    hue-4.0.1.tgz                           zookeeper-3.4.10.tar.gz
    jdk-8u144-linux-x64.tar.gz#使用SCP命令:
    scp ./* hadoop-01@192.168.56.101:/home/hadoop-01/

  4. 安装JDK1.8并解压:
    tar -zxvf jdk-8u144-linux-x64.tar.gz

  5. 设置当前用户的java_home 编辑~/.bash_profile
    JAVA_HOME=/home/hadoop-02/sdk-home/jdk1.8.0_144
    export JAVA_HOMEPATH=$JAVA_HOME/bin:$PATH
    export PATH

  6. java环境变量设置成功后,使用 :java -version查看版本是否正确
  7. 解压hadoop
    tar -zxvf hadoop-2.7.3.tar.gz

  8. hadoop目录结构解释:
    [hadoop-02@hadoop-02 ~]$ tree -L 3 /home/hadoop-02/sdk-home/hadoop-2.7.3/
    /home/hadoop-02/sdk-home/hadoop-2.7.3/
    |-- bin # 可执行命令
    |   |-- container-executor
    |   |-- hadoop|   |-- yarn
    |   `-- yarn.cmd
    |-- etc
    |   `-- hadoop # 配置文件目录
    |       |-- capacity-scheduler.xml
    |       |-- configuration.xsl
    |       |       |-- yarn-env.sh
    |       `-- yarn-site.xml
    |-- include
    |   |-- hdfs.h
    |  |   `-- TemplateFactory.hh
    |-- lib
    |   `-- native
    |       |-- libhadoop.a
    |       |-- libhadooppipes.a
    |
    |       `-- libhdfs.so.0.0.0
    |-- libexec
    |   |-- hadoop-config.cmd
    |   |-- hadoop-config.sh
    |  |-- LICENSE.txt
    |-- logs
    |   |-- hadoop-hadoop-02-datanode-hadoop-02.log
    |   |-- hadoop-hadoop-02-datanode-hadoop-02.out
    |   |-- |-- NOTICE.txt
    |-- README.txt
    |-- sbin # 启停脚本
    |   |-- distribute-exclude.sh
    |   |-- hadoop-daemon.sh|   `-- yarn-daemons.sh
    `-- share|-- doc #文档目录|   `-- hadoop`-- hadoop  #所有jar包|-- common|-- hdfs|-- httpfs|-- kms|-- mapreduce #内含示例jar包|-- tools`-- yarn

  9. 设置hadoop的环境变量:
    # /hadoop-2.7.3/etc/hadoop/hadoop-env.sh#修改JAVA_HOME为实际对应目录:
    # The java implementation to use.
    export JAVA_HOME=/home/hadoop-02/sdk-home/jdk1.8.0_144/
    

      

  10. 至此本机环境已经准备好找到hadoop的sbin目录执行start-all.sh
    [hadoop-02@hadoop-02 sbin]$ ./start-all.sh
    This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
    Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
    Starting namenodes on []
    hadoop-02@localhost's password:
    localhost: starting namenode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-namenode-hadoop-02.out
    hadoop-02@localhost's password:
    localhost: starting datanode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-datanode-hadoop-02.out
    Starting secondary namenodes [0.0.0.0]
    hadoop-02@0.0.0.0's password:
    0.0.0.0: starting secondarynamenode, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/hadoop-hadoop-02-secondarynamenode-hadoop-02.out
    0.0.0.0: Exception in thread "main" java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority.
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:472)
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:462)
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.NameNode.getServiceAddress(NameNode.java:455)
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:229)
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:192)
    0.0.0.0:    at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:671)
    starting yarn daemons
    starting resourcemanager, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/yarn-hadoop-02-resourcemanager-hadoop-02.out
    hadoop-02@localhost's password:
    localhost: starting nodemanager, logging to /home/hadoop-02/sdk-home/hadoop-2.7.3/logs/yarn-hadoop-02-nodemanager-hadoop-02.out
    [hadoop-02@hadoop-02 sbin]$
    

      

  11. 中间如果没有配置免密登录,会出现四次输入密码,注意观察日志在启动对应的服务。
  12. 检查服务是否正常,包含如下服务:
    [hadoop-02@hadoop-02 sbin]$ jps
    6305 Jps
    6178 NodeManager
    5883 ResourceManager
    [hadoop-02@hadoop-02 sbin]$
    

      

  13. 运行wordcount 示例:
    [hadoop-02@hadoop-02 sbin]$ hadoop jar /home/hadoop-02/sdk-home/hadoop-2.7.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar wordcount /home/hadoop-02/test_hadoop/wordcount.txt /home/hadoop-02/test_hadoop/wordcount_output/
    

      

  14. 到输出目录就能看到结果文件如下:
    [hadoop-02@hadoop-02 sbin]$ cd /home/hadoop-02/test_hadoop/wordcount_output
    [hadoop-02@hadoop-02 wordcount_output]$ ls
    _SUCCESS  part-r-00000
    

      

  15. 至此本地环境搭建就介绍到这里

转载于:https://www.cnblogs.com/sunlightlee/p/10235921.html

Hadoop-2.7.3-本地模式安装-wordcount例子相关推荐

  1. linux hive创建数据库失败,Hive本地模式安装及遇到的问题和解决方案

    Apache Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行. 其优点是学习成 ...

  2. CENTOS上的网络安全工具(九)走向Hadoop(1) SingleNode模式安装与配置

    如果只是在小型企业中构架网络安全,单机的suricata.arkime等工具基本够用了.大型的企业,必然带来更大的需要分析的数据量,如果只是粗略统计一下,提取个别典型协议的少数要素,大致SiLK也就够 ...

  3. Hadoop系列之九:Hadoop集群伪分布式模式的实现详解

    1.Hadoop依赖软件 Hadoop基于Java语言开发,因此其运行严重依赖于JDK(Java Development Kit),并且Hadoop的许多功能依赖于Java 6及以后的版本才提供的特性 ...

  4. Eclipse的下载、安装和WordCount的初步使用(本地模式和集群模式)

    包括:    Eclipse的下载 Eclipse的安装 Eclipse的使用 本地模式或集群模式 Scala IDE for Eclipse的下载.安装和WordCount的初步使用(本地模式和集群 ...

  5. Scala IDE for Eclipse的下载、安装和WordCount的初步使用(本地模式和集群模式)

    不多说,直接上干货! 这篇博客是, 是在Scala IDEA for Eclipse里maven创建scala和java代码编写环境. Scala IDEA for Eclipse里用maven来创建 ...

  6. IntelliJ IDEA(Ultimate版本)的下载、安装和WordCount的初步使用(本地模式和集群模式)...

    IntelliJ IDEA号称当前Java开发效率最高的IDE工具.IntelliJ IDEA有两个版本:社区版(Community)和旗舰版(Ultimate).社区版时免费的.开源的,但功能较少, ...

  7. Hadoop Single Node Setup(hadoop本地模式和伪分布式模式安装-官方文档翻译 2.7.3)

    Purpose(目标) This document describes how to set up and configure a single-node Hadoop installation so ...

  8. 2021年大数据Flink(三):​​​​​​​Flink安装部署 Local本地模式

    目录 Flink安装部署 Local本地模式 原理 操作 测试 Flink安装部署 Flink支持多种安装模式 - Local-本地单机模式,学习测试时使用 - Standalone-独立集群模式,F ...

  9. hadoop本地模式部署_hadoop启动模式、基本配置、启动方式

    Local (Standalone) Mode MapReduce 程序运行在本地,启动 jvm 启动本地模式: 1 .配置 hadoop-env.sh 配置文件中的 java_home 路径 2 . ...

最新文章

  1. oracle中的NVL,NVL2,NULLIF,COALESCE函数使用
  2. 安装php遇到的问题
  3. python 删除尾部0_python之List常见操作
  4. 一些关于图论和二叉树的
  5. 基于vue2.0的一个豆瓣电影App
  6. 杭电acm2028 Lowest Common Multiple Plus
  7. Javascript的块级作用域
  8. AhMyth远程控制手机实践
  9. 3D场景编辑导出-LayaAir引擎Unity插件使用详解
  10. java 实现macd算法_macd 的java版本实现 包含测试用例
  11. php解析psd图层,PSD解析工具实现(七)
  12. 平安京因服务器升级维护无法,《阴阳师》手游12月31日维护更新公告
  13. matlab cond函数
  14. 小白 0-1 学习 app 开发,从配置到 hello world
  15. 最新虚拟机SAP ECC6.0 EHP7带示例数据IDES版+BW740
  16. python的pyside2安装
  17. 中国的RFID产业何时才能统一标准
  18. 如何让自己的浏览器全屏?
  19. mapreduce填空式编程
  20. 【推荐实践】腾讯推荐系统中的深度匹配模型

热门文章

  1. pythonの连接MySQL数据库
  2. mysql的介绍和安装
  3. 下载tomcat插件最新的网址
  4. 定义表格的指定列的属性
  5. 让你的创业失败的18个昏招 都归结到这里
  6. 图算法--深度优先/广度优先/最小生成树/最短路径
  7. Linux之虚拟机配置双网卡
  8. java fastdfs 压测_利用jmeter+JAVA对RPC的单接口(dubbo接口等)进行性能测试,零基础(2)...
  9. (40)System Verilog随机函数$random示例
  10. (45)FPGA面试题格雷码特点及其应用