目录:

目录见文章1

文章:官方文档hadoop2.7.4

目的

这篇文档的目的是帮助你快速完成单机上的Hadoop安装与使用以便你对Hadoop分布式文件系统(HDFS)和Map-Reduce框架有所体会,比如在HDFS上运行示例程序或简单作业等。

概述

  • GNU/Linux是产品开发和运行的平台。 Hadoop已在有2000个节点的GNU/Linux主机组成的集群系统上得到验证。
  • Win32平台是作为开发平台支持的。由于分布式操作尚未在Win32平台上充分测试,所以还不作为一个生产平台被支持。
  • (1) JavaTM  JDK1.5+,必须安装。(2)ssh 必须安装并且保证 sshd一直运行(以便用Hadoop 脚本管理远端Hadoop守护进程)。

安装软件

如果你的集群尚未安装所需软件,你得首先安装它们。

以Ubuntu Linux为例:

$ sudo apt-get install openssh-server
$ sudo apt-get install rsync

下载

为了获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版。

运行Hadoop集群的准备工作

解压所下载的 Hadoop 发行版。编辑 etc/hadoop/hadoop-env.sh 文件,定义如下参数:

# 设置 Java 的安装目录
export JAVA_HOME=/usr/software/java/jdk8

尝试如下命令:

$ bin/hadoop 
将会显示hadoop 脚本的使用文档。

现在你可以用以下三种支持的模式中的一种启动Hadoop集群:

  • 单机模式
  • 伪分布式模式
  • 完全分布式模式

单机模式的操作方法

默认情况下,Hadoop被配置成以非分布式模式运行的一个独立Java进程。这对调试非常有帮助。

下面的实例将已解压的 conf 目录拷贝作为输入,查找并显示匹配给定正则表达式的条目。输出写入到指定的output目录。

$ mkdir input
$ cp etc/hadoop/*.xml input
$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar grep input output 'dfs[a-z.]+'
$ cat output/*

输出结果如下:

2    dfs.replication
1    dfsadmin
1    dfs.name.dir
1    dfs.data.dir

伪分布式模式的操作方法

Hadoop 可以在单节点上以所谓的伪分布式模式运行,此时每一个 Hadoop 守护进程都作为一个独立的 Java 进程运行。

配置:

etc/hadoop/core-site.xml

<configuration><property><name>fs.defaultFS.name</name><value>hdfs://localhost:9000</value></property><property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property><property><name>hadoop.tmp.dir</name><value>/usr/software/hadoop/tmp</value></property>
</configuration>

附:配置fs.default.name的原因:http://blog.csdn.net/lisongjia123/article/details/77414189

etc/hadoop/hdfs-site.xml:

<configuration><property><name>dfs.replication</name><value>1</value></property>
</configuration>

由于我们只有一台主机和一个为分部模式的datanode,所以dfs.replication值为1

免密码 ssh 设置(跟上一节的hadoop入门须知里一样)

现在确认 能否不输入口令就用 ssh 登录 localhost:

$ ssh localhost

如果不输入口令就无法用 ssh 登陆 localhost,执行下面的命令:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

执行

下面演示本地运行一个 MapReduce 的 job,以下是运行步骤。

(1)格式化一个新的分布式文件系统:

$ bin/hdfs namenode -format

(2)启动 NameNode 守护进程和 DataNode 守护进程:

$ sbin/start-dfs.sh

Hadoop 守护进程的日志写入到 $HADOOP_LOG_DIR目录(默认是 $HADOOP_HOME/logs)

(3)浏览 NameNode 的网络接口,它们的地址默认为:

NameNode - http://localhost:50070/

注意:这个http://localhost:50070/是在linux下的访问的localhost:50070,windows下要改成linux的http://[ip]:50070 来访问

(4)创建 HDFS 目录来执行 MapReduce 的 job:

$ bin/hdfs dfs -mkdir /user
$ bin/hdfs dfs -mkdir /user/<username>

(5)将输入文件拷贝到分布式文件系统:

$ bin/hdfs dfs -put input input
hadoop fs -put < local file > < hdfs file >
//这一行 会在上个步骤的文件目录下,创建input文件夹

(6)运行发行版提供的示例程序:

$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.4.jar grep input output 'dfs[a-z.]+'

此处,使用命令

$ bin/hdfs dfs -ls input  可以查看到input目录下刚拷贝的xml文件

$ bin/hdfs dfs -ls /    可以查看目录

如果报错output已存在,需要删除分布式系统中已存在的output文件夹

$ bin/hdfs dfs -ls    查看到分布式系统新建的文件夹,如input和步骤6生成的output文件夹

$ bin/hdfs dfs –rm –r output  可删除分布式系统output文件夹

附录:hadoop HDFS常用文件操作命令

(7)查看输出文件

将输出文件从分布式文件系统拷贝到本地文件系统查看:

$ bin/hdfs dfs -get output output
$ cat output/*

或者,在分布式文件系统上查看输出文件:

$ bin/hdfs dfs -cat output/*

(8)完成全部操作后,停止守护进程:

$ sbin/stop-dfs.sh

二.hadoop环境搭建相关推荐

  1. Hadoop环境搭建教学(二)完全分布式集群搭建;

    Hadoop环境搭建教学(一)运行环境,集群规划介绍: 文章目录 安装三台 CentOS 7系统 一.X-Shell的准备工作 二.基本工具安装 三.关闭防火墙 四.修改Host文件 五.3.4.4 ...

  2. Hadoop环境搭建(二)CentOS7的下载与安装

    Hadoop环境搭建(一) VMware Workstation安装 与 网络配置 1. CentOS7的下载 https://wiki.centos.org/Download 2. CentOS7安 ...

  3. Hadoop环境搭建教学(一)运行环境,集群规划介绍;

    文章目录 前言 一.Hadoop的三种运行环境 二.集群规划 三.需要的基本软件安装 下期见 前言 Hadoop的运行环境可以是在Windows上,也可以在linux上,但在Windows上运行效率很 ...

  4. GitChat·大数据 | 史上最详细的Hadoop环境搭建

    GitChat 作者:鸣宇淳 原文: 史上最详细的Hadoop环境搭建 关注公众号:GitChat 技术杂谈,一本正经的讲技术 [不要错过文末彩蛋] 前言 Hadoop在大数据技术体系中的地位至关重要 ...

  5. hadoop环境搭建(详解)

    hadoop 环境搭建 引言: 随着人工智能和大数据的热潮的到来,大数据变得越来越火了,坏蛋哥的信念就是致力于大数据的发展和进步,希望能为大数据的发展和推广尽一份绵薄之力.如果要做大数据,那么大数据相 ...

  6. Hadoop环境搭建之zookeeper安装

    Hadoop环境搭建 一.预备知识 1.大数据导论 1.1 大数据概念 大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉.管理和处理的数据集合,是需要新处理模式才能具有更强的决 ...

  7. Hadoop+hive+flask+echarts大数据可视化项目之系统数据整合和hadoop环境搭建

    Hadoop+hive+flask+echarts大数据可视化项目(二) --------------系统数据整合和hadoop环境搭建---------------- 关注Hadoop+Hive+F ...

  8. Hadoop环境搭建及常见问题解决(保姆级教程)

    Hadoop环境搭建及常见问题解决 零.资源准备 一.环境准备 1. 安装虚拟机 2. 环境准备 1) 创建新用户xiaobai 2) 安装ssh-server 3) 上传相关资源 [4)] 使用pu ...

  9. hadoop环境搭建(一):环境准备

    hadoop环境搭建(一):环境准备 近期,学校开始了大数据课程,我带着学生从零到有一步一步架设大数据集群,现将具体步骤记录,以便更多初涉大数据的小白们有个参考,欢迎评论区留言讨论. 很少写博客,所以 ...

最新文章

  1. python 进程池pool简单实例
  2. yum安装JAVA centos下使用yum安装jdk
  3. eclipse中导入spring-boot框架的jar包方法
  4. 在linux下,如何在C语言中使用正则表达式
  5. python和flask中返回JSON数据
  6. 前端学习(2740):重读vue电商网站50之Element-UI 组件按需加载
  7. 某教授对“中国式科研”的酒后真言
  8. LeetCode 145. 二叉树的后序遍历(递归)(迭代)(颜色标记法)
  9. 机器学习基石PLA相关
  10. 每日算法系列【LeetCode 714】买卖股票的最佳时机含手续费
  11. 交叉熵损失的来源、说明、求导与pytorch实现
  12. Zabbix SNMP配置(学习笔记十九)
  13. 联想智能云教室安win7_联想智能云教室解决方案-联想商用.PDF
  14. mongodb-b站黑马程序员
  15. excel自动调整列宽_EXCEL选择性粘贴,这些招数你用过吗?
  16. 【2021软件测试扫盲】测试理论(325页“面试教科书”免费送)
  17. 用proteus来看二极管的单向导电性
  18. 认识中药(5)--胖大海
  19. 腾讯云轻量服务器性能评测:配置 8核 16G 18M 带宽
  20. 双目摄像头三种标定方式标定结果对比

热门文章

  1. postgresql-9.6.6主从
  2. 【HDFS】HDFS操作命令
  3. WORD Application.Documents.Open函数返回null的一种解决方法
  4. 【PHP】Ajax跨域解决方案 、jsonp、cors
  5. Java HttpURLConnection模拟请求Rest接口解决中文乱码问题
  6. 为什么用dict.get(key)而不是dict [key]?
  7. win11HDMI端口无法使用怎么办 windows11HDMI端口无法使用的解决方法
  8. 神舟战神怎么装win11系统
  9. spring cloud微服务注册中心EurekaServer
  10. 基本数据类型包装类的使用与转换