文章目录

  • 大数据概论

    • 一、大数据概念
    • 二、大数据的特点
    • 三、大数据能干啥?
    • 四、大数据发展前景
    • 五、企业数据部的业务流程分析
    • 六、企业数据部的一般组织结构
  • Hadoop(入门)
    • 一 从Hadoop框架讨论大数据生态

      • 1.1 Hadoop是什么
      • 1.2 Hadoop发展历史
      • 1.3 Hadoop三大发行版本
      • 1.4 Hadoop的优势
      • 1.5 Hadoop组成
        • 1.5.1 HDFS架构概述
        • 1.5.2 YARN架构概述
      • 1.5.3 MapReduce架构概述
      • 1.6 大数据技术生态体系
      • 1.7 推荐系统框架图
    • 二 Hadoop运行环境搭建
      • 2.1 虚拟机网络模式设置为NAT
      • 2.2 克隆虚拟机
      • 2.3 修改为静态ip
      • 2.4 修改主机名
      • 2.5 关闭防火墙
      • 2.6 在opt目录下创建文件
      • 2.7 安装jdk
      • 2.8 安装Hadoop
    • 三 Hadoop运行模式
      • 3.1 本地文件运行Hadoop 案例

        • 3.1.1 官方grep案例
        • 3.1.2 官方wordcount案例
      • 3.2 伪分布式运行Hadoop 案例
        • 3.2.1 HDFS上运行MapReduce 程序
        • 3.2.2 YARN上运行MapReduce 程序
        • 3.2.3 修改本地临时文件存储目录
        • 3.2.4 Hadoop配置文件说明
        • 3.2.5 历史服务配置启动查看
        • 3.2.6 日志的聚集
      • 3.3 完全分布式部署Hadoop(重点)
        • 3.3.1 虚拟机准备
        • 3.3.2 主机名设置
        • 3.3.3 scp
        • 3.3.4 SSH无密码登录
        • 3.3.5 rsync
        • 3.3.6 编写集群分发脚本xsync
        • 3.3.7 编写分发脚本xcall
        • 3.3.8 配置集群
        • 3.3.9 集群启动及测试
        • 3.3.10 Hadoop启动停止方式
        • 3.3.11 集群时间同步
        • 3.3.12 配置集群常见问题
    • 四 Hadoop编译源码
      • 4.1 前期准备工作
      • 4.2 jar包安装
      • 4.3 编译源码
      • 4.4 常见的问题及解决方案

大数据概论

一、大数据概念

大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。
最小的基本单位是bit,按顺序给出所有单位:bit、Byte、KB、MB、GB、TB、PB、EB、ZB、YB、BB、NB、DB。
1Byte = 8bit 1K = 1024bit 1MB = 1024K 1G = 1024M
1T = 1024G 1P = 1024T 1E = 1024P 1Z = 1024E
1Y = 1024Z 1B = 1024Y 1N = 1024B 1D = 1024N

二、大数据的特点

1)Volume(大量):
截至目前,人类生产的所有印刷材料的数据量是200PB,而历史上全人类总共说过的话的数据量大约是5EB。当前,典型个人计算机硬盘的容量为TB量级,而一些大企业的数据量已经接近EB量级。
​​ ​

2)Velocity(高速):
这是大数据区分于传统数据挖掘的最显著特征。根据IDC的“数字宇宙”的报告,预计到2020年,全球数据使用量将达到35.2ZB。在如此海量的数据面前,处理数据的效率就是企业的生命。
天猫双十一:2016年6分58秒,天猫交易额超过100亿
​​ ​​
​​


3)Variety(多样):
这种类型的多样性也让数据被分为结构化数据和非结构化数据。相对于以往便于存储的以数据库/文本为主的结构化数据,非结构化数据越来越多,包括网络日志、音频、视频、图片、地理位置信息等,这些多类型的数据对数据的处理能力提出了更高要求。
订单数据:
​​
网络数据:
​​
4)Value(低价值密度):
价值密度的高低与数据总量的大小成反比。比如,在一天监控视频中,我们只关心宋宋老师晚上在床上健身那一分钟,如何快速对有价值数据“提纯”成为目前大数据背景下待解决的难题。
​​

三、大数据能干啥?

1)O2O:百度大数据+平台通过先进的线上线下打通技术和客流分析能力,助力商家精细化运营,提升销量。
​​ ​​
2)零售:探索用户价值,提供个性化服务解决方案;贯穿网络与实体零售,携手创造极致体验。经典案例,子尿布+啤酒。
​​ ​​ ​​


3)旅游:深度结合百度独有大数据能力与旅游行业需求,共建旅游产业智慧管理、智慧服务和智慧营销的未来。
​​
4)商品广告推荐:给用户推荐访问过的商品广告类型
​​
5) 房产:大数据全面助力房地产行业,打造精准投策与营销,选出更合适的地,建造更合适的楼,卖给更合适的人。
6)保险:海量数据挖掘及风险预测,助力保险行业精准营销,提升精细化定价能力。
7)金融:多维度体现用户特征,帮助金融机构推荐优质客户,防范欺诈风险。
​​
8)移动联通:移动联通:根据用户年龄、职业、消费情况,分析统计哪种套餐适合哪类人群。对市场人群精准定制。
​​
9)人工智能
​​ ​​
​​ ​​
​​ ​​

四、大数据发展前景

1)党的十八届五中全会提出“实施国家大数据战略”,国务院印发《促进大数据发展行动纲要》,大数据技术和应用处于创新突破期,国内市场需求处于爆发期,我国大数据产业面临重要的发展机遇。
2)国际数据公司IDC预测,到2020年,企业基于大数据计算分析平台的支出将突破5000亿美元。目前,我国大数据人才只有46万,未来3到5年人才缺口达150万之多。
​​
人才缺口计算
150w-40w=110w
110W/5年 = 22w/年
22w/12月=1.83w/月
自古不变的真理:先入行者吃肉,后入行者喝汤,最后到的买单!
3)2017年北京大学、中国人民大学、北京邮电大学等25所高校成功申请开设大数据课程。
4)大数据属于高新技术,大牛少,升职竞争小;
5)在北京大数据开发工程师的平均薪水已经到17800元(数据统计来职友集),而且目前还保持强劲的发展势头。
​​
​​

五、企业数据部的业务流程分析

六、企业数据部的一般组织结构

企业数据部的一般组织结构,适用于大中型企业。

Hadoop(入门)

一 从Hadoop框架讨论大数据生态

1.1 Hadoop是什么

1)Hadoop是一个由Apache基金会所开发的分布式系统基础架构
2)主要解决,海量数据的 存储 和海量数据的 分析计算 问题。
3)广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈
​​

1.2 Hadoop发展历史

1)Lucene–Doug Cutting开创的开源软件,用java书写代码,实现与Google类似的全文搜索功能,它提供了全文检索引擎的架构,包括完整的查询引擎和索引引擎
2)2001年年底成为apache基金会的一个子项目
3)对于大数量的场景,Lucene面对与Google同样的困难
4)学习和模仿Google解决这些问题的办法 :微型版Nutch
5)可以说Google是hadoop的思想之源(Google在大数据方面的三篇论文)
GFS —>HDFS
Map-Reduce —>MR
BigTable —>Hbase
6)2003-2004年,Google公开了部分GFS和Mapreduce思想的细节,以此为基础Doug Cutting等人用了2年业余时间实现了DFS和Mapreduce机制,使Nutch性能飙升
7)2005 年Hadoop 作为 Lucene的子项目 Nutch的一部分正式引入Apache基金会。2006 年 3 月份,Map-Reduce和Nutch Distributed File System (NDFS) 分别被纳入称为 Hadoop 的项目中
8)名字来源于Doug Cutting儿子的玩具大象
​​
9)Hadoop就此诞生并迅速发展,标志这云计算时代来临

1.3 Hadoop三大发行版本

Hadoop 三大发行版本: Apache、Cloudera、Hortonworks
Apache版本最原始(最基础)的版本,对于入门学习最好。
Cloudera在大型互联网企业中用的较多。
Hortonworks文档较好。

1)Cloudera Hadoop
(1)2008年成立的Cloudera是最早将Hadoop商用的公司,为合作伙伴提供Hadoop的商用解决方案,主要是包括支持、咨询服务、培训。
(2)2009年Hadoop的创始人Doug Cutting也加盟Cloudera公司。Cloudera产品主要为CDH,Cloudera Manager,Cloudera Support
(3)CDH是Cloudera的Hadoop发行版,完全开源,比Apache Hadoop在兼容性,安全性,稳定性上有所增强。
(4)Cloudera Manager是集群的软件分发及管理监控平台,可以在几个小时内部署好一个Hadoop集群,并对集群的节点及服务进行实时监控。Cloudera Support即是对Hadoop的技术支持。
(5)Cloudera的标价为每年每个节点4000美元。Cloudera开发并贡献了可实时处理大数据的Impala项目。
2)Hortonworks Hadoop
(1)2011年成立的Hortonworks是雅虎与硅谷风投公司Benchmark Capital合资组建。
(2)公司成立之初就吸纳了大约25名至30名专门研究Hadoop的雅虎工程师,上述工程师均在2005年开始协助雅虎开发Hadoop,贡献了Hadoop80%的代码。
(3)雅虎工程副总裁、雅虎Hadoop开发团队负责人Eric Baldeschwieler出任Hortonworks的首席执行官。
(4)Hortonworks的主打产品是Hortonworks Data Platform(HDP),也同样是100%开源的产品,HDP除常见的项目外还包括了Ambari,一款开源的安装和管理系统。
(5)HCatalog,一个元数据管理系统,HCatalog现已集成到Facebook开源的Hive中。Hortonworks的Stinger开创性的极大的优化了Hive项目。Hortonworks为入门提供了一个非常好的,易于使用的沙盒。
(6)Hortonworks开发了很多增强特性并提交至核心主干,这使得Apache Hadoop能够在包括Window Server和Windows Azure在内的microsoft Windows平台上本地运行。定价以集群为基础,每10个节点每年为12500美元。

1.4 Hadoop的优势

1)高可靠性:因为Hadoop假设计算元素和存储会出现故障,因为它维护多个工作数据副本,在出现故障时可以对失败的节点重新分布处理。
2)高扩展性:在集群间分配任务数据,可方便的扩展数以千计的节点。
3) 高效性:在MapReduce的思想下,Hadoop是并行工作的,以加快任务处理速度。
4)高容错性:自动保存多份副本数据,并且能够自动将失败的任务重新分配。

1.5 Hadoop组成


1)Hadoop HDFS:一个高可靠、高吞吐量的分布式文件系统。
2)Hadoop MapReduce:一个分布式的离线并行计算框架。
3)Hadoop YARN:作业调度与集群资源管理的框架。
4)Hadoop Common:支持其他模块的工具模块。

HSFS相当于电脑磁盘
Hadoop MapReduce相当于应用程序
Hadoop YARN相当于电脑系统

1.5.1 HDFS架构概述

1)NameNode(nn):存储文件的元数据,如文件名,文件目录结构,文件属性(生成时间、副本数、文件权限),以及每个文件的块列表和块所在的DataNode等。
​​ ​​

2)DataNode(dn):在本地文件系统存储文件块数据,以及块数据的校验和。
​​ ​​

3)Secondary NameNode(2nn):用来监控HDFS状态的辅助后台程序,每隔一段时间获取HDFS元数据的快照。辅助NameNode工作

1.5.2 YARN架构概述

1)ResourceManager(rm):处理客户端请求、启动/监控ApplicationMaster、监控NodeManager、资源分配与调度;
2)NodeManager(nm):单个节点上的资源管理、处理来自ResourceManager的命令、处理来自ApplicationMaster的命令;
3)ApplicationMaster:数据切分、为应用程序申请资源,并分配给内部任务、任务监控与容错。
4)Container:对任务运行环境的抽象,封装了CPU、内存等多维资源以及环境变量、启动命令等任务运行相关的信息。

1.5.3 MapReduce架构概述

MapReduce将计算过程分为两个阶段:Map和Reduce
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总

1.6 大数据技术生态体系


图中涉及的技术名词解释如下:
1)Sqoop:sqoop是一款开源的工具,主要用于在Hadoop(Hive)与传统的数据库(mysql)间进行数据的传递,可以将一个关系型数据库(例如 : MySQL ,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
2)Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
3)Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
(1)通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
(2)高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息
(3)支持通过Kafka服务器和消费机集群来分区消息。
(4)支持Hadoop并行数据加载。
4)Storm:Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于“连续计算”(continuous computation),对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
5)Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
6)Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。Oozie协调作业就是通过时间(频率)和有效数据触发当前的Oozie工作流程。
7)Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
8)Hive:hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
10)R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
11)Mahout:
Apache Mahout是个可扩展的机器学习和数据挖掘库,当前Mahout支持主要的4个用例:
推荐挖掘:搜集用户动作并以此给用户推荐可能喜欢的事物。
聚集:收集文件并进行相关文件分组。
分类:从现有的分类文档中学习,寻找文档中的相似特征,并为无标签的文档进行正确的归类。
频繁项集挖掘:将一组项分组,并识别哪些个别项会经常一起出现。
12)ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

1.7 推荐系统框架图

二 Hadoop运行环境搭建

2.1 虚拟机网络模式设置为NAT

​​ ​​

最后,重新启动系统。
[root@hadoop101 ~]# sync
[root@hadoop101 ~]# reboot

2.2 克隆虚拟机

1)克隆虚拟机
​​

​​
​​
​​
​​
​​
​​

2)启动虚拟机

2.3 修改为静态ip

1)在终端命令窗口中输入
[root@hadoop101 /]#vim /etc/udev/rules.d/70-persistent-net.rules
进入如下页面,删除eth0该行;将eth1修改为eth0,同时复制物理ip地址
​​
因为这个是本机的物理网卡
2)修改IP地址
[root@hadoop101 /]#vim /etc/sysconfig/network-scripts/ifcfg-eth0
需要修改的内容有5项:
IPADDR=192.168.1.101
GATEWAY=192.168.1.2
ONBOOT=yes
BOOTPROTO=static
DNS1=192.168.1.2
(1)修改前
​​
(2)修改后
​​
:wq 保存退出
3)执行service network restart
​​
4)如果报错,reboot,重启虚拟机

2.4 修改主机名

1)修改linux的hosts文件
(1)进入Linux系统查看本机的主机名。通过hostname命令查看
[root@hadoop ~]# hostname
hadoop100
(2)如果感觉此主机名不合适,我们可以进行修改。通过编辑/etc/sysconfig/network文件
#vi /etc/sysconfig/network

文件中内容
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME= hadoop101
注意:主机名称不要有“_”下划线
(3)打开此文件后,可以看到主机名。修改此主机名为我们想要修改的主机名hadoop101。
(4)保存退出。
(5)打开/etc/hosts
vim /etc/hosts
添加如下内容
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102
192.168.1.103 hadoop103
192.168.1.104 hadoop104
192.168.1.105 hadoop105
192.168.1.106 hadoop106
192.168.1.107 hadoop107
192.168.1.108 hadoop108
192.168.1.109 hadoop109
192.168.1.110 hadoop110
(6)并重启设备,重启后,查看主机名,已经修改成功

2)修改window7的hosts文件
(1)进入C:\Windows\System32\drivers\etc路径
(2)打开hosts文件并添加如下内容
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102
192.168.1.103 hadoop103
192.168.1.104 hadoop104
192.168.1.105 hadoop105
192.168.1.106 hadoop106
192.168.1.107 hadoop107
192.168.1.108 hadoop108
192.168.1.109 hadoop109
192.168.1.110 hadoop110

2.5 关闭防火墙

1)查看防火墙开机启动状态
chkconfig iptables --list
2)关闭防火墙
chkconfig iptables off

2.6 在opt目录下创建文件

1)创建atguigu用户
在root用户里面执行如下操作
2)设置atguigu用户具有root权限
修改 /etc/sudoers 文件,找到下面一行,在root下面添加一行,如下所示:

## Allow root to run any commands anywhere
root    ALL=(ALL)     ALL
atguigu   ALL=(ALL)     ALL

修改完毕,现在可以用atguigu帐号登录,然后用命令 su - ,即可获得root权限进行操作。
3)在/opt目录下创建文件夹
(1)在root用户下创建module、software文件夹(如果mkdir的命令不行就sudo mkdir)
mkdir module
mkdir software
(2)修改module、software文件夹的所有者
[root@hadoop101 opt]# chown atguigu module
[root@hadoop101 opt]# chown atguigu software
[root@hadoop101 opt]# ls -al
总用量 24
drwxr-xr-x. 6 root root 4096 4月 24 09:07 .
dr-xr-xr-x. 23 root root 4096 4月 24 08:52 …
drwxr-xr-x. 4 atguigu root 4096 4月 23 16:26 module
drwxr-xr-x. 2 root root 4096 3月 26 2015 rh
drwxr-xr-x. 2 atguigu root 4096 4月 23 16:25 software

2.7 安装jdk

1)卸载现有jdk
(1)查询是否安装java软件:
rpm -qa|grep java
(2)如果安装的版本低于1.7,卸载该jdk:
rpm -e 软件包
2)用filezilla工具将jdk、Hadoop-2.7.2.tar.gz(官方原版的)导入到opt目录下面的software文件夹下面
​​
3)在linux系统下的opt目录中查看软件包是否导入成功。
[root@hadoop101opt]# cd software/
[root@hadoop101software]# ls
jdk-7u79-linux-x64.gz hadoop-2.7.2.tar.gz
4)解压jdk到/opt/module目录下
tar -zxf jdk-7u79-linux-x64.gz -C /opt/module/
5)配置jdk环境变量
(1)先获取jdk路径:
[root@hadoop101 jdk1.7.0_79]# pwd
/opt/module/jdk1.7.0_79
(2)打开/etc/profile文件:
[root@hadoop101 jdk1.7.0_79]# vi /etc/profile
在profie文件末尾添加jdk路径:
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.7.0_79
export PATH=PATH:PATH:PATH:JAVA_HOME/bin
(3)保存后退出:
:wq
(4)让修改后的文件生效:
[root@hadoop101 jdk1.7.0_79]# source /etc/profile
(5)重启(如果java –version可以用就不用重启):
[root@hadoop101 jdk1.7.0_79]# sync
[root@hadoop101 jdk1.7.0_79]# reboot
6)测试jdk安装成功
[root@hadoop101 jdk1.7.0_79]# java -version
java version “1.7.0_79”

2.8 安装Hadoop

1)进入到Hadoop安装包路径下:
[root@hadoop101 ~]# cd /opt/software/
2)解压安装文件到/opt/module下面
[root@hadoop101 software]# tar -zxf hadoop-2.7.2.tar.gz -C /opt/module/
3)查看是否解压成功
[root@hadoop101 software]# ls /opt/module/
hadoop-2.7.2

hadoop中的内容:
bin 一些命令
etc 配置文件
include c语言的一些类库
lib libexec 第三方的类库
LIECENSE.txt NOTICE.txt README.txt 描述性文件
sbin 用户命令
share jar包
4)配置hadoop中的hadoop-env.sh
cd /opt/module/hadoop-2.7.2
ll
cd etc/
ll
cd hadoop
ll (发现有hadoop-env.sh)
vi hadoop-env.sh

找到
export JAVA_HOME=$(JAVA_HOME)
修改为
export JAVA_HOME=/opt/module/jdk1.7.0_79(自己的java home)

5)将hadoop添加到环境变量
(1)获取hadoop安装路径:
[root@ hadoop101 hadoop-2.7.2]# pwd
/opt/module/hadoop-2.7.2
(2)打开/etc/profile文件:
root@ hadoop101 hadoop-2.7.2]# vi /etc/profile
在profie文件末尾添加jdk路径:(shitf+g)
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=PATH:PATH:PATH:HADOOP_HOME/bin
export PATH=PATH:PATH:PATH:HADOOP_HOME/sbin
(3)保存后退出:
:wq
(4)让修改后的文件生效:
root@ hadoop101 hadoop-2.7.2]# source /etc/profile
(5)重启(如果hadoop命令不能用再重启):
root@ hadoop101 hadoop-2.7.2]# sync
root@ hadoop101 hadoop-2.7.2]# reboot

三 Hadoop运行模式

1)官方网址
(1)官方网站:
http://hadoop.apache.org/
(2)各个版本归档库地址
https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/
(3)hadoop2.7.2版本详情介绍
http://hadoop.apache.org/docs/r2.7.2/
2)Hadoop运行模式
(1)本地模式(默认模式):
不需要启用单独进程,直接可以运行,测试和开发时使用。
(2)伪分布式模式:
等同于完全分布式,只有一个节点。
(3)完全分布式模式:
多个节点一起运行。

3.1 本地文件运行Hadoop 案例

3.1.1 官方grep案例

1)创建在hadoop-2.7.2文件下面创建一个input文件夹

[atguigu@hadoop101 hadoop-2.7.2]$mkdir input

2)将hadoop的xml配置文件复制到input

[atguigu@hadoop101 hadoop-2.7.2]$cp etc/hadoop/*.xml input

3)执行share目录下的mapreduce程序

[atguigu@hadoop101 hadoop-2.7.2]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'

如果配置了hadoop环境变量的话可以直接hadoop
input 输入文件夹,是说在这个文件夹下面查找数据,前面已经输入进去了
output查询的结果放到哪个文件中去,output不允许已经存在,否则会报错。也可以起其他的名字,比如out
dfs[a-z.]+ dfs开头[] 表示可选 a-z可选 + 表示还可以有其他的字母

ll
发现多了一个outpput目录,
cd output
ll
发现有如下两个文件
part-r-00000(地址内容)
_SUCCESS(标志性的)

cat part-r-00000
1 dfsadmin

从一堆配置文件中找到了dfsadmin,并且这个单词出现的次数是1

4)查看输出结果

[atguigu@hadoop101 hadoop-2.7.2]$ cat output/*

3.1.2 官方wordcount案例

1)创建在hadoop-2.7.2文件下面创建一个wcinput文件夹

[atguigu@hadoop101 hadoop-2.7.2]$mkdir wcinput

2)在wcinput文件下创建一个wc.input文件

[atguigu@hadoop101 hadoop-2.7.2]$cd wcinput
[atguigu@hadoop101 wcinput]$touch wc.input

3)编辑wc.input文件 输入任意字符都可以
4)回到hadoop目录/opt/module/hadoop-2.7.2
5)执行程序:
[atguigu@hadoop101 hadoop-2.7.2]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput wcoutput
6)查看结果:
[atguigu@hadoop101 hadoop-2.7.2]$cat wcoutput/part-r-00000
atguigu 2
hadoop 2
mapreduce 1
yarn 1

3.2 伪分布式运行Hadoop 案例

3.2.1 HDFS上运行MapReduce 程序

1)分析:
(1)准备1台客户机
(2)安装jdk
(3)配置环境变量
(4)安装hadoop
(5)配置环境变量
(6)配置集群
(7)启动、测试集群增、删、查
(8)在HDFS上执行wordcount案例

服务器最小系统
2.1 虚拟机网络模式设置为NAT
2.2 克隆虚拟机
2.3 修改为静态ip (1)[root@hadoop101 /]#vim /etc/udev/rules.d/70-persistent-net.rules 删除eth0,升级eth1为eth0;
复制物理ip地址。 (2)[root@hadoop101 /]#vim
/etc/sysconfig/network-scripts/ifcfg-eth0 粘贴复制的物理ip地址
IPADDR=192.168.1.101
2.4修改主机名 (1)#vi /etc/sysconfig/network 修改主机名称 (2)vim /etc/hosts
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102 -------------------------------------- 重启: sync reboot
2.5 关闭防火墙 chkconfig iptables --list

2)执行步骤
需要配置hadoop文件如下
(1)配置集群
(a)配置:hadoop-env.sh
Linux系统中获取jdk的安装路径:
[root@ hadoop101 ~]# echo $JAVA_HOME
/opt/module/jdk1.7.0_79
修改JAVA_HOME 路径:
(b)配置:core-site.xml

<!--指定HDFS中NameNode的地址-->
<property><name>fs.defaultFS</name><value>hdfs://hadoop101:8020</value>//hdfs:// hdfs协议,类似http://
</property>
<!--指定hadoop运行时产生文件的存储目录-->
<property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>



通过查看apache官网发现,fs.defaultFS默认值是file:/// 也就是本地文件,这也就是为什么在本地模式下不需要任何配置直接能运行,而这里我们是用集群的hdfs的方式来控制。
(c)配置:hdfs-site.xml

<!--指定HDFS副本的数量-->
<property><name>dfs.replication</name><value>1</value>
</property>



默认值是3

(2)启动集群
(a)格式化namenode(第一次启动时格式化,以后就不要总格式化)
cd hadoop-2.7.2/bin (101机器,因为是伪集群,也就是本机)
ll (发现有一个hdfs吗,专门用来处理hdfs相关的)
cd hadoop-2.7.2
bin/hdfs namenode -format
(b)启动namenode
cd cd hadoop-2.7.2
sbin/hadoop-daemon.sh start namenode
(c)启动datanode
sbin/hadoop-daemon.sh start datanode
(3)查看集群
(a)查看是否启动成功
[root@hadoop101 ~]# jps
13586 NameNode
13668 DataNode
13786 Jps
(b)查看产生的log日志
当前目录:/opt/module/hadoop-2.7.2/logs
[root@hadoop101 logs]# ls
hadoop-root-datanode-hadoop.atguigu.com.log
hadoop-root-datanode-hadoop.atguigu.com.out
hadoop-root-namenode-hadoop.atguigu.com.log
hadoop-root-namenode-hadoop.atguigu.com.out
SecurityAuth-root.audit
[root@hadoop101 logs]# cat hadoop-root-datanode-hadoop.atguigu.com.log
(c)web端查看HDFS文件系统
输入 http://192.168.1.101:50070/
这个端口号,是hadoop框架提供的访问端口
http://192.168.1.101:50070/dfshealth.html#tab-overview
注意:如果不能查看,看如下帖子处理
http://www.cnblogs.com/zlslch/p/6604189.html

startd 创建时间
version 版本号
conpiled 完成时间
cluster id 集群id号
block Pool id 模块的版本号

node 显示的节点 可以看到还是本机101


hdfs具体存放数据的路径,这个页面只能查看,要想创建需要通过linu
(4)操作集群
(a)在hdfs文件系统上创建一个input文件夹
[atguigu@hadoop101 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /user/atguigu/mapreduce/wordcount/input
注意:bin/hdfs dfs等价于hadoop fs

完了之后在这个页面上就会出现相应的目录

-R是递归、-ls 类似linux ls ,查看根目录下的fs -lsr和-ls -R是等价的
(b)将测试文件内容上传到文件系统上
bin/hdfs dfs -put wcinput/wc.input /user/atguigu/mapreduce/wordcount/input/
是hadoop-2.7.2目录下上面的例子中创建的文件,这里可以上传其他的文件,这里只是举例wcinput/wc.input

但是这个页面只允许查看不允许修改
(c)查看上传的文件是否正确
bin/hdfs dfs -ls /user/atguigu/mapreduce/wordcount/input/
bin/hdfs dfs -cat /user/atguigu/mapreduce/wordcount/input/wc.input
(d)在Hdfs上运行mapreduce程序
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/mapreduce/wordcount/input/ /user/atguigu/mapreduce/wordcount/output
wordcount 是wordcount案例,于上面的官方案例的区别是吧input和output 的路径换成了hdfs的路径
(e)查看输出结果
命令行查看:
bin/hdfs dfs -cat /user/atguigu/mapreduce/wordcount/output/*

浏览器查看
​​
(f)将测试文件内容下载到本地
hadoop fs -get /user/atguigu/mapreduce/wordcount/output/part-r-00000 ./wcoutput/

(g)删除输出结果
hdfs dfs -rmr /user/atguigu/mapreduce/wordcount/output
-rmr 递归删除
为什么要删除output目录?
因为在再次运行的时候就运行不了了

这里注意,集群不能正常启动的问题:

第一次启动没问题,第二次启动时,会有文件残留,bin/hdfs namenode -formate 会产生一个新的namenode文件(id),就不认识一点的datanode了,导致进群不能正常启动。
解决办法:在格式化之前,删除datanode里面的信息(默认在/tmp,如果配置该目录,那就要去你配置的目录下删除(hadoop-2.7.2/data/tmp))

3.2.2 YARN上运行MapReduce 程序

1)分析:
(1)准备1台客户机
(2)安装jdk
(3)配置环境变量
(4)安装hadoop
(5)配置环境变量
(6)配置集群yarn上运行
(7)启动、测试集群增、删、查
(8)在yarn上执行wordcount案例
2)执行步骤
(1)配置集群
(a)配置yarn-env.sh
配置一下JAVA_HOME

记住env.sh只需要配置JAVA_HOME
(b)配置yarn-site.xml

<!--reducer获取数据的方式-->
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>//mapreduce_shuffle获取数据的方式
</property>
<!--指定YARN的ResourceManager的地址-->
<property><name>yarn.resourcemanager.hostname</name><value>hadoop101</value>
</property>

cd /opt/module/hadoop-2.7.2/etc/hadoop
vi yarn-site.xml

(c)配置:mapred-env.sh
配置一下JAVA_HOME (同上)
(d)配置: (对mapred-site.xml.template重新命名为) mapred-site.xml
cd /opt/module/hadoop-2.7.2/etc/hadoop
ll
mv mapred-site.xml.template mapred-site.xml

<!--指定mr运行的yarn上-->
<property><name>mapreduce.fremework.name</name><value>yarn</value>
</property>


(2)启动集群
启动之前先开启namenode和datanode
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode

(a)启动resourcemanager
sbin/yarn-daemon.sh start resourcemanager (hadoop-2.7.2/sbin目录)
(b)启动nodemanager
sbin/yarn-daemon.sh start nodemanager

(3)集群操作
(a)yarn的浏览器页面查看
http://192.168.1.101:8088/cluster
​​
(b)删除文件系统上的output文件
bin/hdfs dfs -rm -R /user/atguigu/mapreduce/wordcount/output
(c)执行mapreduce程序
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /user/atguigu/mapreduce/wordcount/input /user/atguigu/mapreduce/wordcount/output

可以看到map全部执行完毕,之后才开始执行reduce
(d)查看运行结果
bin/hdfs dfs -cat /user/atguigu/mapreduce/wordcount/output/*
​​

3.2.3 修改本地临时文件存储目录

1)停止进程
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop datanode
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop namenode

关闭之后尝试启动

发现启动不了

因为这里的tmp没有删除,这里的目录是默认值在下面有讲
rm -rf hadoop-atguigu
rm -rf hadoop-atguigu-namenode.pid

cd …/(hadoop-2.2.7)
rm -rf logs (里面保存着上一个集群的日志)
2)修改hadoop.tmp.dir

mkdir -p data/tmp 也可以不创建,因为下面指定了
[core-site.xml]
cd hadoop-2.7.2/rtc/hadoop
vi core-site.xml

<!---->
<property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>


默认值

3)格式化NameNode
[atguigu@hadoop101 hadoop-2.7.2]$ hadoop namenode -format
4)启动所有进程
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start resourcemanager
[atguigu@hadoop101 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager
5)查看/opt/module/hadoop-2.7.2/data/tmp这个目录下的内容。

3.2.4 Hadoop配置文件说明

Hadoop配置文件分两类:默认配置文件和自定义配置文件,只有用户想修改某一默认配置值时,才需要修改自定义配置文件,更改相应属性值。
(1)默认配置文件:存放在hadoop相应的jar包中
找到从官网上下载的hadoop包,解压
cd hadoop-2.7.2/share/hadoop/hdfs(mapreduce、yarn)

[core-default.xml]
hadoop-common-2.7.2.jar/ core-default.xml
[hdfs-default.xml]
hadoop-hdfs-2.7.2.jar/ hdfs-default.xml
[yarn-default.xml]
hadoop-yarn-common-2.7.2.jar/ yarn-default.xml
[core-default.xml]
hadoop-mapreduce-client-core-2.7.2.jar/ core-default.xml
(2)自定义配置文件:存放在$HADOOP_HOME/etc/hadoop
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml

3.2.5 历史服务配置启动查看

1)配置mapred-site.xml
2)查看启动历史服务器文件目录:

[root@hadoop101 hadoop-2.7.2]# ls sbin/ |grep mr
mr-jobhistory-daemon.sh
3)启动历史服务器
sbin/mr-jobhistory-daemon.sh start historyserver
4)查看历史服务器是否启动
jps
5)查看jobhistory
http://192.168.1.101:19888/jobhistory

3.2.6 日志的聚集

日志聚集概念:应用运行完成以后,将日志信息上传到HDFS系统上
开启日志聚集功能步骤:

(1)配置yarn-site.xml
(2)关闭nodemanager 、resourcemanager和historymanager
sbin/yarn-daemon.sh stop resourcemanager
sbin/yarn-daemon.sh stop nodemanager
sbin/mr-jobhistory-daemon.sh stop historyserver
(3)启动nodemanager 、resourcemanager和historymanager
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
sbin/mr-jobhistory-daemon.sh start historyserver
(4)删除hdfs上已经存在的hdfs文件
bin/hdfs dfs -rm -R /user/atguigu/mapreduce/wordcount/output
(5)执行wordcount程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/atguigu/mapreduce/wordcount/input /user/atguigu/mapreduce/wordcount/output
(6)查看日志
http://192.168.1.101:19888/jobhistory

​​
​​
​​

3.3 完全分布式部署Hadoop(重点)

分析:
1)准备3台客户机( 关闭防火墙、静态ip、主机名称
2)安装jdk
3)配置环境变量
4)安装hadoop
5)配置环境变量
6)安装ssh
7)配置集群
8)启动测试集群

3.3.1 虚拟机准备

详见2.2-2.3章。
简单概括:
先准备一个什么都没有的虚拟机,

主机ip 主机名 防火墙全部关闭

然后克隆两台

修改ip hostname hosts 等
之后重启

3.3.2 主机名设置

详见2.4章。

3.3.3 scp

1)scp可以实现服务器与服务器之间的数据拷贝。
2)案例实操
(1)将hadoop101中/opt/module和/opt/software文件拷贝到hadoop102、hadoop103和hadoop104上。
[root@hadoop101 /]# scp -r /opt/module/ root@hadoop102:/opt
[root@hadoop101 /]# scp -r /opt/software/ root@hadoop102:/opt
[root@hadoop101 /]# scp -r /opt/module/ root@hadoop103:/opt
[root@hadoop101 /]# scp -r /opt/software/ root@hadoop103:/opt
[root@hadoop101 /]# scp -r /opt/module/ root@hadoop104:/opt
[root@hadoop101 /]# scp -r /opt/software/ root@hadoop105:/opt
(2)将192.168.1.102服务器上的文件拷贝到当前用户下。
[root@hadoop101 opt]# scp root@hadoop102:/etc/profile /opt/tmp/
(3)实现两台远程机器之间的文件传输(hadoop103主机文件拷贝到hadoop104主机上)
[atguigu@hadoop102 test]$ scp atguigu@hadoop103:/opt/test/haha atguigu@hadoop104:/opt/test/

3.3.4 SSH无密码登录

1)配置ssh
(1)基本语法
ssh 另一台电脑的ip地址
(2)ssh连接时出现Host key verification failed的解决方法
[root@hadoop2 opt]# ssh 192.168.1.103
The authenticity of host ‘192.168.1.103 (192.168.1.103)’ can’t be established.
RSA key fingerprint is cf:1e??d7:d0:4c:2d:98:60:b4:fd:ae:b1:2d:ad:06.
Are you sure you want to continue connecting (yes/no)?
Host key verification failed.
(3)解决方案如下:直接输入yes
2)无密钥配置
(1)进入到我的home目录
cd ~/.ssh


(2)生成公钥和私钥:
ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
(3)将公钥拷贝到要免密登录的目标机器上
ssh-copy-id 192.168.1.102
(4)然后就可以直接ssh 192.168.1.102 不需要输入免密码
3).ssh文件夹下的文件功能解释
(1)~/.ssh/known_hosts :记录ssh访问过计算机的公钥(public key)
(2)id_rsa :生成的私钥
(3)id_rsa.pub :生成的公钥
(4)authorized_keys :存放授权过得无秘登录服务器公钥

a访问b 配置了免密登录可以免密登录,b访问a,必须还要再次配置才能免密登录

3.3.5 rsync

rsync远程同步工具,主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
(1)查看rsync使用说明
man rsync | more
(2)基本语法
rsync -rvl pdir/pdir/pdir/fname user@hadoopuser@hadoopuser@hadoophost:$pdir
命令 命令参数 要拷贝的文件路径/名称 目的用户@主机:目的路径
选项
-r 递归
-v 显示复制过程
-l 拷贝符号连接
(3)案例实操
把本机/opt/tmp目录同步到hadoop103服务器的root用户下的/opt/tmp目录
rsync -rvl /opt/tmp/* root@hadoop103:/opt/tmp

拷贝路径的时候,a及其c文件==>b文件c文件
a机器c文件下有d、e b机器c文件下有f、g、d
通过rsync会将b机器原来的d覆盖掉,原来的没丢,新加入e,最后b机器的c文件下应该是d、e、f、g,但是d是a机器d的内容

3.3.6 编写集群分发脚本xsync

类似于scp
1)需求分析:循环复制文件到所有节点的相同目录下。
(1)原始拷贝:
rsync -rvl /opt/module root@hadoop103:/opt/
(2)期望脚本:
xsync 要同步的文件名称
(3)在/usr/local/bin这个目录下存放的脚本,可以在系统任何地方直接执行,需要制定路径。
2)案例实操:
(1)在/usr/local/bin目录下创建xsync文件,文件内容如下:

#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
//获取参数个数
pcount=$#
if((pcount==0)); then
echo no args;
//直接退出,不让程序往后执行
exit;
fi#2 获取文件名称
p1=$1
//basename 是为了获得末尾的目录,例如/opt/a  会得到a
fname=`basename $p1`
echo fname=$fname#3 获取上级目录到绝对路径
//dir /usr/local/bin/a.txt   得到 /usr/local/bin
//cd -P防止软连接
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir#4 获取当前用户名称
user=`whoami`#5 循环
for((host=103; host<105; host++)); do
//rsync  -rvl     /opt/module        root@hadoop103:/opt/
//这里循环两次是因为例子中只有103 104 机器,具体情况根据自己实际情况循环#echo $pdir/$fname $user@hadoop$host:$pdirecho --------------- hadoop$host ----------------rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done

(2)修改脚本 xsync 具有执行权限
[root@hadoop102 bin]# chmod a+x xsync
(3)调用脚本形式:xsync 文件名称
中间可能会提示输入密码,输入即可,也可以配置下免密登录。

3.3.7 编写分发脚本xcall

1)需求分析:在所有主机上同时执行相同的命令
xcall +命令
2)具体实现
(1)在/usr/local/bin目录下创建xcall文件,文件内容如下:

#!/bin/bash
pcount=$#
if((pcount==0));thenecho no args;exit;
fiecho -------------localhost----------
$@
for((host=101; host<=108; host++)); doecho ----------hadoop$host---------//登录机器后执行命令ssh hadoop$host $@
done

(2)修改脚本 xcall 具有执行权限
[root@hadoop102 bin]# chmod a+x xcall
(3)调用脚本形式: xcall 操作命令
[root@hadoop102 ~]# xcall rm -rf /opt/tmp/profile

注意,/opt/tmp/profile 需要用绝对路径
当然也可以:

3.3.8 配置集群

1)集群部署规划

2)配置文件
(1)core-site.xml
(hadoop/etc/hadoop)

<!-- 指定HDFS中NameNode的地址 --><property><name>fs.defaultFS</name><value>hdfs://hadoop102:9000</value></property><!-- 指定hadoop运行时产生文件的存储目录 --><property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-2.7.2/data/tmp</value></property>

(2)Hdfs
hadoop-env.sh
(hadoop/etc/hadoop)

export JAVA_HOME=/opt/module/jdk1.7.0_79

hdfs-site.xml
(hadoop/etc/hadoop)

<configuration>   <property><name>dfs.replication</name><value>3</value></property>//配置secondaryNameNode<property><name>dfs.namenode.secondary.http-address</name><value>hadoop104:50090</value></property>
</configuration>

slaves

(hadoop/etc/hadoop)
这个配置文件中不能有空格、回车等特殊字符,要求严格,容易报错。

hadoop102
hadoop103
hadoop104

(3)yarn
yarn-env.sh
(hadoop/etc/hadoop)

export JAVA_HOME=/opt/module/jdk1.7.0_79

yarn-site.xml
(hadoop/etc/hadoop)

<configuration>
<!-- Site specific YARN configuration properties -->
<!-- reducer获取数据的方式 --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 指定YARN的ResourceManager的地址 --><property><name>yarn.resourcemanager.hostname</name><value>hadoop103</value></property></configuration>

(4)mapreduce
mapred-env.sh
(hadoop/etc/hadoop)

export JAVA_HOME=/opt/module/jdk1.7.0_79

mapred-site.xml
(hadoop/etc/hadoop)
将原来的mapred-site.xml.template修改为mapred-site.xml
然后进行修改

<configuration>
<!-- 指定mr运行在yarn上 --><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>

3)在集群上分发以上所有文件
cd /opt/module/hadoop-2.7.2/etc/hadoop
xsync /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml
xsync /opt/module/hadoop-2.7.2/etc/hadoop/yarn-site.xml
xsync /opt/module/hadoop-2.7.2/etc/hadoop/slaves

当然可以直接xync hadoop/
4)查看文件分发情况
xcall cat /opt/module/hadoop-2.7.2/etc/hadoop/slaves

3.3.9 集群启动及测试

1)启动集群
(0)如果集群是第一次启动,需要格式化namenode
[root@hadoop102 hadoop-2.7.2]# bin/hdfs namenode -format
(1)启动HDFS:
启动之前需要所有节点删除 hadoop根目录/data 、hadoop根目录/logs
[root@hadoop102 hadoop-2.7.2]# sbin/start-dfs.sh (在namenode执行,datanode会自动启动)
[root@hadoop102 hadoop-2.7.2]# jps
4166 NameNode
4482 Jps
4263 DataNode

[root@hadoop103 桌面]# jps
3218 DataNode
3288 Jps

[root@hadoop104 桌面]# jps
3221 DataNode
3283 SecondaryNameNode
3364 Jps
(2)启动yarn
sbin/start-yarn.sh
注意:Namenode和ResourceManger如果不是同一台机器,不能在NameNode上启动 yarn,应该在ResouceManager所在的机器上启动yarn。


slaves文件中配置的是datenode,每一个DateNode机器上都会有一个NodeManager,所以在启动yarn的时候,只需要启动ResourceManger,NodeManager会根据slaves文件自动寻找有DateNode的节点自动启动。


每次 启动失败都要重复一下:1.启动之前需要所有节点删除 hadoop根目录/data 、hadoop根目录/logs 2.如果集群是第一次启动,需要格式化namenode : bin/hdfs namenode -format


注意点:
1 一定要配置好ssh,能够ssh通,注意配置ssh的用户是root还是普通用户,最好配置免密登录
2 yarn一定要在ResourceManager上启动

2)集群基本测试
(1)上传文件到集群(NameNode节点)
查看集群中是否有东西
hadoop fs -lsr /
上传小文件
bin/hdfs dfs -mkdir -p /user/atguigu/tmp/conf
bin/hdfs dfs -put etc/hadoop/*-site.xml /user/atguigu/tmp/conf
-put命令:第一个参数要上传的文件,第二个参数要上传的位置
上传大文件
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -put /opt/software/hadoop-2.7.2.tar.gz /user/atguigu/input
查看是否存上去了
hadoop fs -lsr /
当然也可以通过访问 http://hadoop102:50070

permission 权限
owner 文件的拥有者
group 拥有者的组
size 大小
last modified 最后修改时间
replication 副本数(这里显示的注释计划的副本,不是真正的副本数,可能现在只有三个节点)
block size块大小,hdfs是按照块存储的,文件很大会拆分成很多块

点击后面的文件名:

可以下载,查看目前在哪个块(上面的例子中如果是tar.gz文件就有两个块,如果是.txt文件就只显示一个块),块id,块pool id,大小
最主要的是 Availability:哪个节点课件,即这个快属于谁,即备份了几份,备份到了哪几个数据节点上,
(2)上传文件后查看文件存放在什么位置
cd hadoop_home/data/tmp/dfs
ll
发现有两个文件 data、name(NameNode节点)
发现有一个文件data(DataNode节点)
发现有两个文件data、namesecondary(secondary文件)

cd data
ll
cd current
ll
cd BP-xxxxxxxxx
ll
cd current
cd finalized
cd subdir0
cd subdir0
ll

发现这里面存的是块
cat blk_xxx825
输出上面的xiaoxiong.txt中的内容
因为上面比较大的tar包分成了两个块(826、827)
所以car blk_xxx826
输出乱码如何将826和827进行拼接?看下面

文件存储路径
[atguigu@hadoop102 subdir0]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-938951106-192.168.10.107-1495462844069/current/finalized/subdir0/subdir0
查看文件内容
[atguigu@hadoop102 subdir0]$ cat blk_1073741825
hadoop
atguigu
atguigu

或者hadoop fs -cat /user/atguigu/input/xxx
(3)拼接
-rw-rw-r–. 1 atguigu atguigu 134217728 5月 23 16:01 blk_1073741836
-rw-rw-r–. 1 atguigu atguigu 1048583 5月 23 16:01 blk_1073741836_1012.meta
-rw-rw-r–. 1 atguigu atguigu 63439959 5月 23 16:01 blk_1073741837
-rw-rw-r–. 1 atguigu atguigu 495635 5月 23 16:01 blk_1073741837_1013.meta

mkdir tmp.file (当然这个文件的名字随意,我也可以叫tmp)
[atguigu@hadoop102 subdir0]$ cat blk_1073741836>>tmp.file
[atguigu@hadoop102 subdir0]$ cat blk_1073741837>>tmp.file
[atguigu@hadoop102 subdir0]$ tar -zxvf tmp.file
发现能够解压成hadoop-2.7.2文件
(4)下载
[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -get /user/atguigu/input/hadoop-2.7.2.tar.gz

[atguigu@hadoop102 hadoop-2.7.2]$ bin/hadoop fs -get /user/atguigu/input/hadoop-2.7.2.tar.gz ./
3)性能测试集群
写海量数据
读海量数据

3.3.10 Hadoop启动停止方式

1)各个服务组件逐一启动
(1)分别启动hdfs组件
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode
暂时不用,在新加节点,停止节点的时候用
(2)启动yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager
2)各个模块分开启动(配置ssh是前提) 常用
(1)整体启动/停止hdfs
start-dfs.sh 启动NameNode DataNode namesecondary
stop-dfs.sh
(2)整体启动/停止yarn
start-yarn.sh ResouceManager NodeManager
stop-yarn.sh
3)全部启动(不建议使用)
start-all.sh
stop-all.sh

3.3.11 集群时间同步

时间同步的方式:找一个机器,作为时间服务器,所有的机器与这台集群时间进行定时的同步,比如,每日十分钟,同步一次时间。
配置时间同步:
1)时间服务器配置
(1)检查ntp是否安装
[root@hadoop102 桌面]# rpm -qa|grep ntp
ntp-4.2.6p5-10.el6.centos.x86_64
fontpackages-filesystem-1.41-1.1.el6.noarch
ntpdate-4.2.6p5-10.el6.centos.x86_64
(2)修改ntp配置文件
vi /etc/ntp.conf
修改内容如下
a)修改1
#restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap为
restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
b)修改2
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst为
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
c)添加3
server 127.127.1.0
fudge 127.127.1.0 stratum 10
3)修改/etc/sysconfig/ntpd 文件
vim /etc/sysconfig/ntpd
增加内容如下
SYNC_HWCLOCK=yes
4)重新启动ntpd
[root@hadoop102 桌面]# service ntpd status
ntpd 已停
[root@hadoop102 桌面]# service ntpd start
正在启动 ntpd: [确定]
5)执行:
chkconfig ntpd on
2)其他机器配置(必须root用户)
(1)在其他机器配置10分钟与时间服务器同步一次
[root@hadoop103 hadoop-2.7.2]# crontab -e
编写脚本
*/10 * * * * /usr/sbin/ntpdate hadoop102
(2)修改任意机器时间
date -s “2015-9-11”
(3)十分钟后查看机器是否与时间服务器同步
date

3.3.12 配置集群常见问题

1)防火墙没关闭、或者没有启动yarn
报错如下:
INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
2)主机名称配置错误
3)ip地址配置错误
4)ssh没有配置好
xsync脚本用root用户,启动集群最好用非root用户
5)root用户和atguigu两个用户启动集群不统一
6)配置文件修改不细心
最好直接复制粘贴
7)未编译源码
Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
不兼容,比如hadoop下载的64位,可是机器是32位
17/05/22 15:38:58 INFO client.RMProxy: Connecting to ResourceManager at hadoop108/192.168.10.108:8032
8)datanode不被namenode识别问题
Namenode在format初始化的时候会形成两个标识,blockPoolId和clusterId。新的datanode加入时,会获取这两个标识作为自己工作目录中的标识。
一旦namenode重新format后,namenode的身份标识已变,而datanode如果依然持有原来的id,就不会被namenode识别。
解决办法,删除datanode节点中的数据后,再次重新格式化namenode。
9)不识别主机名称
解决办法:
(1)在/etc/hosts文件中添加192.168.1.102 hadoop102
(2)主机名称不要起hadoop hadoop000等特殊名称
10)datanode和namenode进程同时只能工作一个。

11)执行命令 不生效,粘贴word中命令时,遇到-和长–没区分开。导致命令失效
解决办法:尽量不要粘贴word中代码。
12)jps发现进程已经没有,但是重新启动集群,提示进程已经开启。原因是在linux的根目录下/tmp目录中存在启动的进程临时文件,将集群相关进程删除掉,再重新启动集群。

四 Hadoop编译源码

4.1 前期准备工作

1)CentOS联网
[root@hadoop101 桌面]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
[root@hadoop101 桌面]# service network restart
注意:采用root角色编译,减少文件夹权限出现问题
2)jar包准备(hadoop源码、JDK7 、 maven、 ant 、protobuf)
(1)hadoop-2.7.2-src.tar.gz
(2)jdk-7u79-linux-x64.gz
(3)apache-ant-1.9.9-bin.tar.gz
(4)apache-maven-3.0.5-bin.tar.gz
(5)protobuf-2.5.0.tar.gz

4.2 jar包安装

0)注意:所有操作必须在root用户下完成
1)JDK解压、配置环境变量 JAVA_HOME和PATH,验证java-version(如下都需要验证是否配置成功)
[root@hadoop101 software] # tar -zxf jdk-7u79-linux-x64.gz -C /opt/module/
[root@hadoop101 software]# vi /etc/profile
[root@hadoop101 software]#source /etc/profile
验证命令:java -version
2)Maven解压、配置 MAVEN_HOME和PATH。
[root@hadoop101 software]# tar -zxvf apache-maven-3.0.5-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-maven-3.0.5]# vi /etc/profile
[root@hadoop101 software]#source /etc/profile
验证命令:mvn -version
3)ant解压、配置 ANT _HOME和PATH。
[root@hadoop101 software]# tar -zxvf apache-ant-1.9.9-bin.tar.gz -C /opt/module/
[root@hadoop101 apache-ant-1.9.9]# vi /etc/profile
[root@hadoop101 software]#source /etc/profile
验证命令:ant -version
4)安装 glibc-headers 和 g++ 命令如下:
[root@hadoop101 apache-ant-1.9.9]# yum install glibc-headers
[root@hadoop101 apache-ant-1.9.9]# yum install gcc-c++
5)安装make和cmake
[root@hadoop101 apache-ant-1.9.9]# yum install make
[root@hadoop101 apache-ant-1.9.9]# yum install cmake
6)解压protobuf ,进入到解压后protobuf主目录,/opt/module/protobuf-2.5.0
然后相继执行命令:
[root@hadoop101 software]# tar -zxvf protobuf-2.5.0.tar.gz -C /opt/module/
[root@hadoop101 opt]# cd /opt/module/protobuf-2.5.0/

[root@hadoop101 protobuf-2.5.0]#./configure
[root@hadoop101 protobuf-2.5.0]# make
[root@hadoop101 protobuf-2.5.0]# make check
[root@hadoop101 protobuf-2.5.0]# make install
[root@hadoop101 protobuf-2.5.0]# ldconfig

[root@hadoop101 hadoop-dist]# vi /etc/profile
[root@hadoop101 software]#source /etc/profile
验证命令:protoc --version
7)安装openssl库
[root@hadoop101 software]#yum install openssl-devel
8)安装 ncurses-devel库:
[root@hadoop101 software]#yum install ncurses-devel
到此,编译工具安装基本完成。

4.3 编译源码

1)解压源码到/opt/tools目录
[root@hadoop101 software]# tar -zxvf hadoop-2.7.2-src.tar.gz -C /opt/
2)进入到hadoop源码主目录
[root@hadoop101 hadoop-2.7.2-src]# pwd
/opt/hadoop-2.7.2-src
3)通过maven执行编译命令
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
等待时间30分钟左右,最终成功是全部SUCCESS。
​​
4)成功的64位hadoop包在/opt/hadoop-2.7.2-src/hadoop-dist/target下。
[root@hadoop101 target]# pwd
/opt/hadoop-2.7.2-src/hadoop-dist/target

4.4 常见的问题及解决方案

1)MAVEN install时候JVM内存溢出
处理方式:在环境配置文件和maven的执行文件均可调整MAVEN_OPT的heap大小。(详情查阅MAVEN 编译 JVM调优问题,如:http://outofmemory.cn/code-snippet/12652/maven-outofmemoryerror-method)
2)编译期间maven报错。可能网络阻塞问题导致依赖库下载不完整导致,多次执行命令(一次通过比较难):
[root@hadoop101 hadoop-2.7.2-src]#mvn package -Pdist,native -DskipTests -Dtar
3)报ant、protobuf等错误,插件下载未完整或者插件版本问题,最开始链接有较多特殊情况,同时推荐
2.7.0版本的问题汇总帖子 http://www.tuicool.com/articles/IBn63qf

转载于:https://www.cnblogs.com/LeesinDong/p/10835269.html

大数据学习笔记之Hadoop(一):Hadoop入门相关推荐

  1. 大数据学习笔记第1课 Hadoop基础理论与集群搭建

    大数据学习笔记第1课 Hadoop基础理论与集群搭建 一.环境准备 二.下载JDK 三.安装JDK 四.下载hadoop 五.安装hadoop集群 六.打通3台服务器的免密登录 七.hadoop集群配 ...

  2. 大数据学习笔记(四)Hadoop集群(完全分布式)

    一.Hadoop集群(完全分布式) 1. 准备工作 1.1 拿模板机克隆三台虚拟机(DT100,DT101,dt102),其中DT100作为master,DT101,102作为slaves A.在ma ...

  3. 大数据学习笔记(二)hadoop

    一.Hadoop生态 ​​ 二.Hadoop环境的搭建 1. 准备工作 A-新建一台虚拟机 (刚刚安装的全新系统)dt100 B.关闭防火墙 systemctl stop firewalld #关闭防 ...

  4. 大数据学习笔记:Hadoop生态系统

    文章目录 一.Hadoop是什么 二.Hadoop生态系统图 三.Hadoop生态圈常用组件 (一)Hadoop (二)HDFS (三)MapReduce (四)Hive (五)Hbase (六)Zo ...

  5. Hadoop 大数据学习笔记

    Hadoop 大数据学习笔记1 大数据部门组织架构 Hadoop Hadoop是什么 Hadoop的优势 Hadoop的组成 HDFS架构 YARN架构 MapReduce 大数据技术生态体系![在这 ...

  6. 大数据学习笔记(一)

    大数据学习笔记(一)大数据概论 大数据是什么 1大数据概念:(big data ) : 指无法在一定时间内用常规软件工具进行捕捉.管理和处理数据集合,是需要新处理模式才能具有更强的决策力.洞察发现力和 ...

  7. 大数据学习笔记二:Ubuntu/Debian 下安装大数据框架Hadoop

    文章目录 安装Java 为Hadoop创建用户 安装Hadoop 配置Hadoop 配置环境变量 设置配置文件 格式化namenode 启动hadoop集群 访问hadoop集群 大数据学习系列文章: ...

  8. 大数据学习笔记一:大数据的发展历程--MapReduce,Hive,Yarn,Hadoop,Spark,Flink

    大数据学习系列文章:大数据-博客专栏 今天在学习极客时间专栏:<从0开始学大数据> 从预习 01 | 大数据技术发展史:大数据的前世今生到预习 03 | 大数据应用领域:数据驱动一切,系统 ...

  9. 此文献给正打算入门大数据的朋友:大数据学习笔记1000条(2)

    501.MapReduce计算框架中的输入和输出的基本数据结构是键-值对. 502.Hadoop神奇的一部分在于sort和shuffle过程. 503.Hive驱动计算的"语言"是 ...

  10. 大数据学习笔记-hadoop(1)

    目录 前言 一.什么是大数据? 二.Ubuntu基础配置 1.安装Ubuntu20.04 2.修改系统语言为中文 3.修复vi编辑器 4.使用root账户 5.网络配置 6.配置源 7.更新 三.ss ...

最新文章

  1. python入门经典例题-Python入门练习题(适合Python初学者做的练习题)
  2. 通过pipeline实现jenkins的ci/cd功能
  3. 【错误记录】Android Studio 编译报错 ( Invalid main APK outputs : EarlySyncBuildOutput )
  4. qt 3d迷宫游戏_Steam上最硬核的恐怖游戏?玩家耗时一个月才通第一关!
  5. tensorflow中的Supervisor
  6. Linux 系统检测工具
  7. 线程安全之原子性Atomic(AtomicInteger|LongAdder|AtomicLong)
  8. java aes输出长度_关于Java下的AES加密明文长度的问题
  9. mysql 下一个月_mysql 取当天、昨天、上一个月、当前月和下个月数据
  10. 山东计算机平面设计学校,什么人适合学平面设计?山东有哪些开设平面设计的学校?...
  11. matlab中图例的字怎么改,如何在Matlab图形图例中设置自定义标记
  12. python中根据视频帧生成视频,保存为mp4格式
  13. 计算机系单身率排行榜,2020中国高校单身率排行榜出炉!附:单身率特别高的专业...
  14. uniapp-自定义导航栏样式不生效问题(一)
  15. 硬盘主引导记录错误问题
  16. Win10启动文件夹在哪里,Win10怎么添加开机启动项?
  17. 常用CV数据集(持续更新中)
  18. 艾 宾 浩 斯 记 忆 法
  19. 阴阳师服务器维护,《阴阳师》手游10月24日维护更新公告
  20. pwm整流器及其控制_T型三相三电平整流器的控制实现和仿真

热门文章

  1. cf Educational Codeforces Round 85 (Rated for Div. 2)B. Middle Class
  2. 单片机p2.0引脚c语言,单片机C语言案例教程习题解答
  3. 教师不能不懂得课堂用语(收尾篇)
  4. C/C++教程 第二十一章 —— Qt界面开发
  5. 禁用弹出窗口阻止程序
  6. 矢量场散度(divergence)和旋度(curl)及Helmholtz定理MATLAB计算
  7. opencv学习笔记二十九:SIFT特征点检测与匹配
  8. verilog设计简易正弦波信号发生器_采用集成运放和分立元件相结合的方式,利用迟滞比较器电路产生方波信号,以及充分利用差分电路进行电路转...
  9. R语言dplyr包summarise_all函数计算dataframe数据中指定因子变量的水平的个数(levels)以及缺失值的个数(missing values)
  10. Ubuntu18.04下px4+MAVROSM+QGC地面站安装教程及避坑指南