2019独角兽企业重金招聘Python工程师标准>>>

Hadoop经常用于处理大量的数据,如果期间的输出数据、中间数据能压缩存储,对系统的I/O性能会有提升。综合考虑压缩、解压速度、是否支持split,目前lzo是最好的选择。LZO(LZO是Lempel-Ziv-Oberhumer的缩写)是一种高压缩比和解压速度极快的编码,它的特点是解压缩速度非常快,无损压缩,压缩后的数据能准确还原,lzo是基于block分块的,允许数据被分解成chunk,能够被并行的解压。LZO库实现了许多有下述特点的算法:
  (1)、解压简单,速度非常快。
  (2)、解压不需要内存。
  (3)、压缩相当地快。
  (4)、压缩需要64 kB的内存。
  (5)、允许在压缩部分以损失压缩速度为代价提高压缩率,解压速度不会降低。
  (6)、包括生成预先压缩数据的压缩级别,这样可以得到相当有竞争力的压缩比。
  (7)、另外还有一个只需要8 kB内存的压缩级别。
  (8)、算法是线程安全的。
  (9)、算法是无损的。
本文针对Hadoop 2.2.0,介绍如何安装和使用lzo。

一、下载、解压并编译lzo包

1 [wyp@master ~]$ wget http://www.oberhumer.com/opensource/lzo/download/lzo-2.06.tar.gz
2 [wyp@master ~]$ tar -zxvf lzo-2.06.tar.gz
3 [wyp@master ~]$ cd lzo-2.06
4 [wyp@master ~]$ export CFLAGS=-m64
5 [wyp@master ~]$ ./configure -enable-shared -prefix=/usr/local/hadoop/lzo/
6 [wyp@master ~]$ make && sudo make install

  编译完lzo包之后,会在/usr/local/hadoop/lzo/生成一些文件,目录结构如下:

1 [wyp@master /usr/local/hadoop/lzo]$ ls -l
2 total 12
3 drwxr-xr-x 3 root root 4096 Mar 21 17:23 include
4 drwxr-xr-x 2 root root 4096 Mar 21 17:23 lib
5 drwxr-xr-x 3 root root 4096 Mar 21 17:23 share

  将/usr/local/hadoop/lzo目录下的所有文件打包,并同步到集群中的所有机器上。

在编译lzo包的时候,需要一些环境,可以用下面的命令安装好lzo编译环境

1 [wyp@master ~]$ yum -y install  lzo-devel     \
2                zlib-devel  gcc autoconf automake libtool

二、安装Hadoop-LZO

  这里下载的是Twitter hadoop-lzo,可以用Maven(如何安装Maven请参照本博客的《Linux命令行下安装Maven与配置》)进行编译。

1 [wyp@master ~]$ wget https://github.com/twitter/hadoop-lzo/archive/master.zip

下载后的文件名是master,它是一个zip格式的压缩包,可以进行解压:

1 [wyp@master ~]$ unzip master

解压后的文件夹名为hadoop-lzo-master

当然,如果你电脑安装了git,你也可以用下面的命令去下载

1 [wyp@master ~]$ git clone https://github.com/twitter/hadoop-lzo.git

hadoop-lzo中的pom.xml依赖了hadoop2.1.0-beta,由于我们这里用到的是Hadoop 2.2.0,所以建议将hadoop版本修改为2.2.0:

1 <properties>
2     <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
3     <hadoop.current.version>2.2.0</hadoop.current.version>
4     <hadoop.old.version>1.0.4</hadoop.old.version>
5   </properties>

然后进入hadoop-lzo-master目录,依次执行下面的命令

01 [wyp@master hadoop-lzo-master]$ export CFLAGS=-m64
02 [wyp@master hadoop-lzo-master]$ export CXXFLAGS=-m64
03 [wyp@master hadoop-lzo-master]$ export C_INCLUDE_PATH=     \
04                                   /usr/local/hadoop/lzo/include
05 [wyp@master hadoop-lzo-master]$ export LIBRARY_PATH=/usr/local/hadoop/lzo/lib
06 [wyp@master hadoop-lzo-master]$ mvn clean package -Dmaven.test.skip=true
07 [wyp@master hadoop-lzo-master]$ cd target/native/Linux-amd64-64
08 [wyp@master Linux-amd64-64]$ tar -cBf - -C lib . | tar -xBvf - -C ~
09 [wyp@master ~]$cp ~/libgplcompression* $HADOOP_HOME/lib/native/
10 [wyp@master hadoop-lzo-master]$cp target/hadoop-lzo-0.4.18-SNAPSHOT.jar   \
11                                    $HADOOP_HOME/share/hadoop/common/

其实在tar -cBf – -C lib . | tar -xBvf – -C ~命令之后,会在~目录下生成一下几个文件:

1 [wyp@master ~]$ ls -l
2 -rw-r--r--  1 libgplcompression.a
3 -rw-r--r--  1 libgplcompression.la
4 lrwxrwxrwx  1 libgplcompression.so -> libgplcompression.so.0.0.0
5 lrwxrwxrwx  1 libgplcompression.so.0 -> libgplcompression.so.0.0.0
6 -rwxr-xr-x  1 libgplcompression.so.0.0.0

  其中libgplcompression.so和libgplcompression.so.0是链接文件,指向libgplcompression.so.0.0.0,将刚刚生成的libgplcompression*和target/hadoop-lzo-0.4.18-SNAPSHOT.jar同步到集群中的所有机器对应的目录。

三、配置Hadoop环境变量

  1、在Hadoop中的$HADOOP_HOME/etc/hadoop/hadoop-env.sh加上下面配置:

1 export LD_LIBRARY_PATH=/usr/local/hadoop/lzo/lib

  2、在$HADOOP_HOME/etc/hadoop/core-site.xml加上如下配置:

01 <property>
02     <name>io.compression.codecs</name>
03     <value>org.apache.hadoop.io.compress.GzipCodec,
04            org.apache.hadoop.io.compress.DefaultCodec,
05            com.hadoop.compression.lzo.LzoCodec,
06            com.hadoop.compression.lzo.LzopCodec,
07            org.apache.hadoop.io.compress.BZip2Codec
08         </value>
09 </property>
10  
11 <property>
12     <name>io.compression.codec.lzo.class</name>
13     <value>com.hadoop.compression.lzo.LzoCodec</value>
14 </property>

  3、在$HADOOP_HOME/etc/hadoop/mapred-site.xml加上如下配置

01 <property>
02     <name>mapred.compress.map.output</name>
03     <value>true</value>
04 </property>
05  
06 <property>
07     <name>mapred.map.output.compression.codec</name>
08     <value>com.hadoop.compression.lzo.LzoCodec</value>
09 </property>
10  
11 <property>
12     <name>mapred.child.env</name>
13     <value>LD_LIBRARY_PATH=/usr/local/hadoop/lzo/lib</value>
14 </property>

  将刚刚修改的配置文件全部同步到集群的所有机器上,并重启Hadoop集群,这样就可以在Hadoop中使用lzo。

四、如何使用

  这里在Hive中使用一下lzo,在hive中创建一个lzo表:

1 hive> create table lzo(
2     > id int,
3     > name string)
4     > STORED AS INPUTFORMAT 'com.hadoop.mapred.DeprecatedLzoTextInputFormat'
5     > OUTPUTFORMAT 'org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat';
6 OK
7 Time taken: 3.423 seconds

如果在创建lzo表出现了如下错误:

1 FAILED: Error in metadata: Class not found:     \
2                   com.hadoop.mapred.DeprecatedLzoTextInputFormat
3 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

请检查你的环境是否配置好。

然后在本地用lzo压缩一个文件,先看看users.txt的内容:

01 [wyp@master ~]$ cat users.txt
02 1^Awyp
03 2^Azs
04 3^Als
05 4^Aww
06 5^Awyp2
07 6^Awyp3
08 7^Awyp4
09 8^Awyp5
10 9^Awyp6
11 10^Awyp7
12 11^Awyp8
13 12^Awyp5
14 13^Awyp9
15 14^Awyp20
16 [wyp@master ~]$ lzop users.txt
17 [wyp@master ~]$ ls -l users.txt*
18 -rw-r--r-- 1 wyp wyp 97  Mar 25 15:40 users.txt
19 -rw-r--r-- 1 wyp wyp 154 Mar 25 15:40 users.txt.lzo

将users.txt.lzo的数据导入到lzo表里面:

01 hive> load data local inpath '/home/wyp/users.txt.lzo' into table lzo;
02 Copying data from file:/home/wyp/users.txt.lzo
03 Copying file: file:/home/wyp/users.txt.lzo
04 Loading data to table default.lzo
05 Table default.lzo stats: [num_partitions: 0, num_files: 1,
06                num_rows: 0, total_size: 154, raw_data_size: 0]
07 OK
08 Time taken: 0.49 seconds
09 hive> select * from lzo;
10 OK
11 1   wyp
12 2   zs
13 3   ls
14 4   ww
15 5   wyp2
16 6   wyp3
17 7   wyp4
18 8   wyp5
19 9   wyp6
20 10  wyp7
21 11  wyp8
22 12  wyp5
23 13  wyp9
24 14  wyp20
25 Time taken: 0.244 seconds, Fetched: 14 row(s)

好了,我们可以在Hadoop中使用lzo了!!(完)

转载于:https://my.oschina.net/u/1169079/blog/225070

Hadoop 2.2.0安装和配置lzo相关推荐

  1. hadoop 2.5.0安装和配置

    安装hadoop要先做以下准备: 1.jdk,安装教程在 http://www.cnblogs.com/stardjyeah/p/4640917.html 2.ssh无密码验证,配置教程在 http: ...

  2. Hortworks Hadoop 2.4.2安装、配置

    Hortonworks Hadoop 2.4.2安装.配置   1简介 此手册应用于Hortonworks Hadoop(HDP2.4.2)的安装.使用. 1.1  参考资料 http://docs. ...

  3. Spark2.1.0安装与配置(单机版)

    Spark2.1.0安装与配置(单机版) B站同步视频:Spark2.1.0安装与配置(单机版) 前言 该安装教程是承接Spark源码编译B站教程所制,因此所使用的安装包是在Spark源码编译教程中得 ...

  4. 记一次 基于Hadoop 3.3.0 安装部署 Spark 3.0.0 分布式集群

    一.基本信息 官网 http://spark.apache.org/ Apache Spark 官方文档中文版(Spark 2.2.0) http://spark.apachecn.org/#/ Sp ...

  5. Maven3.5.0安装与配置

    Maven3.5.0安装与配置 下载Maven3.5.0 Maven3.5.0下载地址 Maven3.5.0的安装 将下载后的apache-maven-3.5.0-bin.zip解压,如"g ...

  6. tomcat9.0安装与配置

    tomcat9.0安装与配置 准备工作 通常情况下,是先下载JDK.JRE之后再下载tomcat的,所以在安装配置tomcat之前,需要检查一下你的jdk.jre环境变量是否配置完成. ·控制面板-& ...

  7. 国产达梦数据库学习笔记(一):NeoKylin7.0安装及配置与常用基础命令

    国产达梦数据库学习笔记(一):NeoKylin7.0安装及配置与常用基础命令 以VMware Workstation Pro 15环境下的NeoKylin7.0与DM8为例 中标麒麟系统NeoKyli ...

  8. hadoop.2.6.0安装hive.1.2.2

    文章目录 1.hadoop.2.6.0的安装 2.hive.1.2.2的安装 2.1 前提 2.2 解压 错误1.提示 1.hadoop.2.6.0的安装 参考:https://blog.csdn.n ...

  9. 查询linux kafka安装目录,Kafka 1.0.0安装和配置--Linux篇

    阅读目录: 1. 关闭防火墙和Selinux 2. 安装所需环境JDK,Zookeeper 3. 下载Kafka 1.0.0版本 4. 配置Kafka 5. 启动Kafka并验证 6. 报错及解决 7 ...

最新文章

  1. HDOJ1035 ( Robot Motion ) 【递归】
  2. 从零开始的全栈工程师——html篇1
  3. 简述 JavaScript 作用域与词法分析
  4. 22.C++- 继承与组合,protected访问级别
  5. java集合,Collection,list,set,map汇总
  6. 数据库程序设计复习资料
  7. 管理感悟:轮值不是记流水账
  8. 【Matlab综合设计】开环Buck-Boost升压-降压式变换器Simulink仿真(含仿真模块选择和参数计算过程)
  9. 用curve_fit拟合幂函数与excel拟合误差问题
  10. 逐向双碳:绿色计算的误区与正确打开方式
  11. android fragment实现翻书效果,viewpager实现翻页效果(fragment)
  12. JS 手机号/身份证/银行账号/邮箱/QQ/电话 掩码处理
  13. xshell左边的菜单栏目,显示会话连接的不见了怎么办?
  14. matlab打开F90文件,ifort编译f90程序命令
  15. Repeater的查询,添加,修改,删除
  16. 程序员跳槽有一份好的简历,offer让你拿到手软
  17. js 插件 drag.js拖动
  18. cisco 3750交换机堆叠配置
  19. 对象、类及从属关系举例
  20. RabbitMq 测试报错channel error(reply-code=405

热门文章

  1. Lazy FP状态还原漏洞公布,大多数Intel的酷睿CPU受其影响
  2. 中国人工智能学会通讯——自然语言处理的十个发展趋势 趋势 4: 语言知识——从人工构建到自动构建...
  3. vscode使用汇总——常用插件、常用配置、常用快捷键
  4. Javascript的匿名函数与自执行
  5. Visual Studio 2012中的为创建类时的添加注释模板
  6. Linux socket 网络编程常用函数总结
  7. 解决 json_encode 中文乱码
  8. MS SQL2005数据库备份
  9. WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-
  10. HitFilm Pro 12中文版