1.hadoop本地库的作用是什么?
2.哪两个压缩编码器必须使用hadoop本地库才能运行?
3.hadoop的使用方法?
4.hadoop本地库与系统版本不一致会引起什么错误?
5.$ export HADOOP_ROOT_LOGGER=DEBUG,console有什么作

本帖最后由 pig2 于 2014-3-20 20:46 编辑
目的

鉴于性能问题以及某些Java类库的缺失,对于某些组件,Hadoop提供了自己的本地实现。 这些组件保存在Hadoop的一个独立的动态链接的库里。这个库在*nix平台上叫libhadoop.so. 本文主要介绍本地库的使用方法以及如何构建本地库。

组件

Hadoop现在已经有以下 compression codecs本地组件:
  • zlib
  • gzip
  • lzo
在以上组件中,lzo和gzip压缩编解码器必须使用hadoop本地库才能运行。
 

使用方法

hadoop本地库的用法很简单:
  • 看一下 支持的平台.
  • 下载 预构建的32位i386架构的Linux本地hadoop库(可以在hadoop发行版的lib/native目录下找到)或者自己 构建 这些库。
  • 确保你的平台已经安装了zlib-1.2以上版本或者lzo2.0以上版本的软件包或者两者均已安装(根据你的需要)。
bin/hadoop 脚本通过系统属性 -Djava.library.path=<path>来确认hadoop本地库是否包含在库路径里。
检查hadoop日志文件可以查看hadoop库是否正常,正常情况下会看到:
DEBUG util.NativeCodeLoader - Trying to load the custom-built native-hadoop library... 
INFO util.NativeCodeLoader - Loaded the native-hadoop library
如果出错,会看到:
INFO util.NativeCodeLoader - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

支持的平台

Hadoop本地库只支持*nix平台,已经广泛使用在GNU/Linux平台上,但是不支持 Cygwin 和 Mac OS X。
已经测试过的GNU/Linux发行版本:
  • RHEL4/Fedora
  • Ubuntu
  • Gentoo
在上述平台上,32/64位Hadoop本地库分别能和32/64位的jvm一起正常运行。

构建Hadoop本地库

Hadoop本地库使用 ANSI C 编写,使用GNU autotools工具链 (autoconf, autoheader, automake, autoscan, libtool)构建。也就是说构建hadoop库的平台需要有标准C的编译器和GNU autotools工具链。请参看 支持的平台。
你的目标平台上可能会需要的软件包:
  • C 编译器 (e.g. GNU C Compiler)
  • GNU Autools 工具链: autoconf, automake, libtool
  • zlib开发包 (stable version >= 1.2.0)
  • lzo开发包 (stable version >= 2.0)
如果已经满足了上述先决条件,可以使用build.xml 文件,并把其中的compile.native置为 true,这样就可以生成hadoop本地库:
$ ant -Dcompile.native=true <target>
因为不是所有用户都需要Hadoop本地库,所以默认情况下hadoop不生成该库。
你可以在下面的路径查看新生成的hadoop本地库:
$ build/native/<platform>/lib
其中<platform>是下列系统属性的组合 ${os.name}-${os.arch}-${sun.arch.data.model};例如 Linux-i386-32。
 
 

注意

  • 在生成hadoop本地库的目标平台上必须 安装了zlib和lzo开发包;但是如果你只希望使用其中一个的话,在部署时,安装其中任何一个都是足够的。
  • 在目标平台上生成以及部署hadoop本地库时,都需要根据32/64位jvm选取对应的32/64位zlib/lzo软件包。

使用DistributedCache 加载本地库

用户可以通过 DistributedCache 加载本地共享库,并分发和建立库文件的符号链接。
这个例子描述了如何分发库文件并在从map/reduce任务中装载库文件。
  • 首先拷贝库文件到HDFS。
    bin/hadoop fs -copyFromLocal mylib.so.1 /libraries/mylib.so.1
  • 启动作业时包含以下代码:
    DistributedCache.createSymlink(conf); 
    DistributedCache.addCacheFile("hdfs://host:port/libraries/mylib.so.1#mylib.so", conf);
  • map/reduce任务中包含以下代码:
    System.loadLibrary("mylib.so");

这里要注意:DistributedCache是用来分发应用特定的只读文件和一个jar包的,以供Map-Reduce框架在启动任务和运行的时候使用这些缓冲的文件或者是把第三方jar包添加到其classpath路径中去,要注意的是DistributedCache的使用是有一个前提的,就它会认为这些通过urls来表示的文件已经在hdfs文件系统里面。

下面给出一个具体示例:
1. 配置应用程序的cache,把需要使用的文件上传到DFS中去:

  1. $ bin/hadoop fs -copyFromLocal lookup.dat /myapp/
  2. $ bin/hadoop fs -copyFromLocal map.zip /myapp/
  3. $ bin/hadoop fs -copyFromLocal mylib.jar /myapp/
  4. $ bin/hadoop fs -copyFromLocal mytar.tar /myapp/
  5. $ bin/hadoop fs -copyFromLocal mytgz.tgz /myapp/
  6. $ bin/hadoop fs -copyFromLocal mytargz.tar.gz /myapp/

复制代码

此时Hadoop框架会把这些应用所需要的文件复制到每个准备启动的节点上去,它会把这些复制到mapred.temp.dir配置的目录中去,以供相应的Task节点使用。

这里要注意的DistriubtedCache分发的文件分成公有与私有文件,公有文件可以给HDFS中的所有用户使用,而私有文件只能被特定的用户所使用,用户可以配置上传文件的访问权限来达到这种效果。

2. 配置JobConf:

  1. JobConf job = new JobConf();
  2. DistributedCache.addCacheFile(new URI("/myapp/lookup.dat#lookup.dat"),job); // 这里的lookup.dat加了一个符号连接
  3. DistributedCache.addCacheArchive(new URI("/myapp/map.zip", job);
  4. DistributedCache.addFileToClassPath(new Path("/myapp/mylib.jar"), job); // 这里是把相应的jar包加到Task的启动路径上去
  5. DistributedCache.addCacheArchive(new URI("/myapp/mytar.tar", job);
  6. DistributedCache.addCacheArchive(new URI("/myapp/mytgz.tgz", job);
  7. DistributedCache.addCacheArchive(new URI("/myapp/mytargz.tar.gz", job);

复制代码

3. 在Mapper或者Reducer任务中使用这些文件:

  1. public static class MapClass extends MapReduceBase
  2. implements Mapper<K, V, K, V> {
  3. private Path[] localArchives;
  4. private Path[] localFiles;
  5. public void configure(JobConf job) {
  6. // Get the cached archives/files
  7. localArchives = DistributedCache.getLocalCacheArchives(job);  // 得到本地打包的文件,一般是数据文件,如字典文件
  8. localFiles = DistributedCache.getLocalCacheFiles(job);        // 得到本地缓冲的文件,一般是配置文件等
  9. }
  10. public void map(K key, V value,
  11. OutputCollector<K, V> output, Reporter reporter)
  12. throws IOException {
  13. // Use data from the cached archives/files here
  14. // ...
  15. // ...
  16. output.collect(k, v);
  17. }
  18. }

复制代码

另外,使用新的MP接口要注意的地方:

1. 我们知道,新的MP接口使用了Job这个类来对MP任务进行配置,这里使用的时候要注意一点

  1. Configuration conf = new Configuration();
  2. // 对conf加入配置信息  - 正确方法
  3. Job job = new Job(conf,"word count");
  4. // 对conf加入配置信息 - 这是有问题的,这些配置不会生效,因为这里生成Job的时候它会对conf进行复制,这个看一下Job的源代码就知道。
  5. // 这里可以用job.getConfiguration()来得到其内部的conf对象,这样就不会有问题。

复制代码

2. 如果你在启动MP任务之前调用了第三方jar包的类,那这就会有问题,会在启动任务的时候找不到这个类。这个问题我还没有找到好的解决办法,一个办法就是把这些类想办法移到MP任务中,如果有朋友知道更加好的办法,请告诉我一下,多谢了。我感觉Nutch中也会有同样的问题,什么时候研究一下Nutch的代码,说不定会有很多关于Hadoop方面的收获。

--------------------------------------------------------------------------------------------------------------------------

hadoop本地库与系统版本不一致引起的错误解决方法

部署hadoop的集群环境为

操作系统 centos 5.8

hadoop版本为cloudera   hadoop-0.20.2-cdh3u3

集群中设置支持gzip lzo压缩后,在对压缩文件进行读取或者对输入文件压缩的时候要使用到hadoop的本地库,本地库的默认位置在

$HADOOP_HOME/lib/native/Linux-amd64-64   (64位操作系统)

$HADOOP_HOME/lib/native/Linux-i386-32   (32位操作系统)

文件夹中的libhadoop.so文件,就是hadoop的本地库。

如果本地库不存在,或者本地库与当前操作系统的版本不一致的时候,会报下面的错误:

11/09/20 17:29:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

增加调试信息设置

$ export HADOOP_ROOT_LOGGER=DEBUG,console
$ hadoop fs -text /test/data/origz/access.log.gz

2012-04-24 15:55:43,269 WARN org.apache.hadoop.util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

error libhadoop.so  /lib64/libc.so.6 required (libc 2.6)    /usr/local/hadoop/lib/native/Linux-amd64-64

说明系统中的glibc的版本和libhadoop.so需要的版本不一致导致

查看系统的libc版本

# ll /lib64/libc.so.6

lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.5.so

系统中的版本为2.5

将系统中的glibc升级为2.9

下载glibc
wget  http://ftp.gnu.org/gnu/glibc/glibc-2.9.tar.bz2

下载glibc-linuxthreads
wget http://ftp.gnu.org/gnu/glibc/glibc-linuxthreads-2.5.tar.bz2

解压
$tar -jxvf glibc-2.9.tar.bz2
$cd glibc-2.9
$tar -jxvf ../glibc-linuxthreads-2.5.tar.bz2
$cd ..
$export CFLAGS="-g -O2"
$./glibc-2.9/configure --prefix=/usr --disable-profile --enable-add-ons --with-headers=/usr/include --with-binutils=/usr/bin
$make
#make install

安装编译过程中需要注意三点:
1、要将glibc-linuxthreads解压到glibc目录下。
2、不能在glibc当前目录下运行configure。
3、加上优化开关,export CFLAGS="-g -O2",否则会出现错误

安装完后,可以查看ls -l /lib/libc.so.6已升级

lrwxrwxrwx 1 root root 11 Apr 24 16:49 /lib64/libc.so.6 -> libc-2.9.so

测试本地库是否升级

$ export HADOOP_ROOT_LOGGER=DEBUG,console
$ hadoop fs -text /test/data/origz/access.log.gz

12/04/25 08:54:47 INFO lzo.LzoCodec: Successfully loaded & initialized native-lzo library [hadoop-lzo rev 6bb1b7f8b9044d8df9b4d2b6641db7658aab3cf8]
12/04/25 08:54:47 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library...
12/04/25 08:54:47 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/04/25 08:54:47 INFO zlib.ZlibFactory: Successfully loaded & initialized native-zlib library
12/04/25 08:54:47 DEBUG fs.FSInputChecker: DFSClient readChunk got seqno 0 offsetInBlock 0 lastPacketInBlock false packetLen 132100
可以看到将glibc升级后不再报错,已经成功加载本地库

-------------------------------------------------------------------------------------------------------------------------------------------------另外一例:错误都是一样,可以从中学到解决问题的方法

用官方的Hadoop 2.1.0-beta安装后,每次hadoop命令进去都会抛出这样一个Warning

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

设置logger级别,看下具体原因

export HADOOP_ROOT_LOGGER=DEBUG,console​

  1. 13/08/29 13:59:38 DEBUG util.NativeCodeLoader: Trying to load the custom-built native-hadoop library...
  2. 13/08/29 13:59:38 DEBUG util.NativeCodeLoader: Failed to load native-hadoop with error: java.lang.UnsatisfiedLinkError: /usr/local/hadoop/hadoop-2.1.0-beta/lib/native/libhadoop.so.1.0.0: /usr/local/hadoop/hadoop-2.1.0-beta/lib/native/libhadoop.so.1.0.0: wrong ELF class: ELFCLASS32 (Possible cause: architecture word width mismatch)
  3. 13/08/29 13:59:38 DEBUG util.NativeCodeLoader: java.library.path=/usr/local/hadoop/hadoop-2.1.0-beta/lib/native/Linux-amd64-64:/usr/local/hadoop/hadoop-2.1.0-beta/lib/native
  4. 13/08/29 13:59:38 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

复制代码

wrong ELFCLASS32,难道是加载的so文件系统版本不对

执行命令file libhadoop.so.1.0.0
libhadoop.so.1.0.0: ELF 32-bit LSB shared object, Intel 80386, version 1 (SYSV), dynamically linked, not stripped
果然是80386,是32位的系统版本,而我的hadoop环境是64位OS
原来直接从apache镜像中下载的编译好的Hadoop版本native library都是32版本的,如果要支持64位版本,必须自己重新编译,这就有点坑爹了,要知道几乎所有的生产环境都是64位的OS

YARN官方对于native library的一段话验证了这一点
“The pre-built 32-bit i386-Linux native hadoop library is available as part of the hadoop distribution and is located in the lib/native directory​”

重新checkout source code
svn checkout http://svn.apache.org/repos/asf/ ... release-2.1.0-beta/
加上编译native的选项,编译时会根据当前的操作系统架构来生产相应的native库
mvn package -Pdist,native -DskipTests -Dtar
再去native文件下查看所有的file type,已经都是64位版的了,替换线上文件,WARNING消除

  1. file *
  2. libhadoop.a:        current ar archive
  3. libhadooppipes.a:   current ar archive
  4. libhadoop.so:       symbolic link to `libhadoop.so.1.0.0'
  5. libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (GNU/Linux), dynamically linked, not stripped
  6. libhadooputils.a:   current ar archive
  7. libhdfs.a:          current ar archive
  8. libhdfs.so:         symbolic link to `libhdfs.so.0.0.0'
  9. libhdfs.so.0.0.0:   ELF 64-bit LSB shared object, x86-64, version 1 (GNU/Linux), dynamically linked, not stripped

复制代码

Hadoop本地库介绍及相关问题解决方法汇总相关推荐

  1. the isle 服务器刷新找不到怎么办,《The Isle》常见问题解决方法汇总 基础知识介绍...

    <The Isle>常见问题解决方法汇总 基础知识介绍 2018-01-22 17:33:43来源:贴吧编辑:评论(0) <岛(The Isle)>是一款恐龙开放世界的生存游戏 ...

  2. IE问题解决方法汇总

    1.发送错误报告 [故障现象]在使用IE浏览网页的过程中,出现"Microsoft Internet Explorer遇到问题需要关闭--"的信息提示.此时,如果单击"发 ...

  3. 实况2018服务器维护,《实况足球2018》常见dll丢失问题解决方法汇总

    <实况足球2018>常见dll丢失问题解决方法汇总 2017-10-17 10:18:14来源:绿茵吧编辑:评论(0) <实况足球2018>已经发售一段时间,玩家在进入体验式也 ...

  4. 启动虎豹骑显示无法连接服务器,虎豹骑游戏进不去常见问题解决方法汇总

    虎豹骑游戏进不去常见问题解决方法汇总 ,每款游戏都会伴随着各种问题及bug而玩家想要解决往往需要花费很多心思.虎豹骑游戏进不去常见问题解决方法汇总,在游戏过程中总是出现大大小小问题的小伙伴可不要错过. ...

  5. 崩坏三服务器维护,崩坏3登录过程所遇问题解决方法汇总

    玩游戏第一步就是要登录游戏,倘若游戏都无法登录那何谈玩游戏呢?崩坏3作为一款强势来袭的火爆手游,很是受到玩家朋友们的喜爱!所以小编特地为大家带来崩坏3登录过程中所遇问题解决方案汇总,以供大家参考,祝大 ...

  6. 城市天际线显示未连接服务器,《城市:天际线》常见问题解决方法汇总

    <城市:天际线>中的系统相当的庞大,萌新新接触的情况下会不可避免的碰到许许多多的问题,那么在新手期间就可以看看"囧的一生不会囧"分享的<城市:天际线>常见问 ...

  7. FTP连接不上,不能显示列表,不能上传文件等问题解决方法汇总

    FTP连接不上,不能显示列表,不能上传文件等问题解决方法汇总 前言 连接不上 不能显示文件列表或上传下载失败 前言 本人使用的是Centos7,安装的vsftpd 当使用工具或者API连接FTP服务器 ...

  8. rabbitmq问题解决方法汇总

    rabbitmq问题解决方法汇总 常见问题 其他安装过程中出现的常见问题参见"RabbitMQ安装遇到的问题(转载)",这里不重复说了. 重点说一个集群配置中的一个问题: 2台机器 ...

  9. 玩fifa服务器显示异常,FIFA online3ui错误黑屏黄屏等常见问题解决方法汇总

    随着世界杯的开赛,各类足球游戏业再度盛行起来,FIFA Online3更是专门更新了最新的世界杯模式版本,但是很多FIFA Online3玩家却发现新版本更新之后出现了很多运行问题,比如说UI错误.黑 ...

最新文章

  1. 用C语言实现常见的三种中文内码转换
  2. Apache2 httpd.conf配置文件中文版详解
  3. Java 图形用户界面 AWT事件处理
  4. Java File类boolean isFile()方法(带示例)
  5. php输入数据提交排序,排序php数据var
  6. python 读写文件 另存为_python读写文件(五)
  7. 服务器系统2022安装wsl2,手把手教你踩坑:老白的Docker for Windows安装初探WSL 2 backend...
  8. 如何禁止chrome浏览器的缓冲图片以及css等资源文件
  9. matlab数字图像处理实验一:图像的读取显示存储、平移镜像放大缩小及旋转
  10. 如何通过Photoshop制作Gif图片(把几张图片合成一张Gif图片)
  11. 计算机专业的学生也太太太太太惨了吧?
  12. 汇编——dosbox的debug常用指令
  13. debian8文件服务器,debian 8 下部署开发环境
  14. 经典排序算法动图图解
  15. E22-400M22S(SX1268) CubeMX HAL
  16. word字体设置:如何为常用字体设置快捷键
  17. 艾永亮:刘昊然盲盒、大白兔润唇膏,95后推动超级产品IP的发展
  18. ArcEngine下纵断面图的绘制
  19. 什么是 DDoS?完整指南
  20. 牛逼大了!腾讯官方的代码安全指南免费公开

热门文章

  1. 二维 均值方差高斯分布图 python_PRML笔记 第二章 (多维)高斯分布
  2. mysql 执行计划不对_MySQL执行计划显示与执行过程不符合
  3. webpack中的loader
  4. Node对CommonJS模块的实现
  5. 用c语言画图的步骤,怎样用c语言画图
  6. 基于c语言客户端的步骤,基于c语言tftp服务器与客户端实现
  7. java dao修改语句_一个通用的DAO模型实现增删改查
  8. aix服务器设备型号,IBM产品系列和AIX系统版本
  9. 年薪50万的程序员_985程序员年薪50万,看似风光,但当事人却想转行
  10. 人口会一直增长下去吗_一直善良下去,你就会幸福