共计 3698 个字符,预计需要花费 10 分钟才能阅读完成。
下载了 Hadoop 预编译好的二进制包,hadoop-2.2.0.tar.gz,启动起来后,总是出现这种警告:
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
原因是 apache 官网提供的二进制包,里面的 native 库,是 32 位的,坑跌啊,现在服务器谁还有 32 位的啊。
$ file $HADOOP_PREFIX/lib/native/libhadoop.so.1.0.0 | |
libhadoop.so.1.0.0: ELF 32-bit LSB shared object, Intel 80386, version 1 (SYSV), dynamically linked, BuildID[sha1]=0x9eb1d49b05f67d38454e42b216e053a27ae8bac9, not stripped |
我们需要下载 Hadoop 2.2.0 源码,在 64 位 Linux 下重新编译,然后把 32 位的 native 库用 64 位的 native 库替换。
1. 下载 Hadoop 2.2.0 源码包,并解压
$ wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.2.0/hadoop-2.2.0-src.tar.gz | |
$ tar zxf hadoop-2.2.0-src.tar.gz |
2. 安装下面的软件
$ sudo yum install lzo-devel zlib-devel gcc autoconf automake libtool ncurses-devel openssl-deve
3. 安装 Maven
不要使用最新的 Maven 3.1.1。Hadoop 2.2.0 的源码与 Maven3.x 存在兼容性问题,所以会出现
java.lang.NoClassDefFoundError: org/sonatype/aether/graph/DependencyFilter
之类的错误。
安装 Maven 3.0.5
$ wget http://mirror.esocc.com/apache/maven/maven-3/3.0.5/binaries/apache-maven-3.0.5-bin.tar.gz | |
$ sudo tar zxf apache-maven-3.0.5-bin.tar.gz -C /opt | |
$ sudo vim /etc/profile | |
export MAVEN_HOME=/opt/apache-maven-3.0.5 | |
export PATH=$PATH:$MAVEN_HOME/bin |
注销并重新登录,让环境变量生效。
4. 安装 Ant
$ wget http://apache.dataguru.cn//ant/binaries/apache-ant-1.9.3-bin.tar.gz | |
$ sudo tar zxf apache-ant-1.9.3-bin.tar.gz -C /opt | |
$ sudo vim /etc/profile | |
export ANT_HOME=/opt/apache-ant-1.9.3 | |
export PATH=$PATH:$ANT_HOME/bin |
5. 安装 Findbugs
$ wget http://prdownloads.sourceforge.net/findbugs/findbugs-2.0.3.tar.gz?download | |
$ sudo tar zxf findbugs-2.0.3.tar.gz -C /opt | |
$ sudo vim /etc/profile | |
export FINDBUGS_HOME=/opt/findbugs-2.0.3 | |
export PATH=$PATH:$FINDBUGS_HOME/bin |
6. 安装 protobuf
编译 Hadoop 2.2.0,需要 protobuf 的编译器 protoc。一定需要 protobuf 2.5.0 以上,yum 里的是 2.3,太老了。因此下载源码,编译安装。
wget https://protobuf.googlecode.com/files/protobuf-2.5.0.tar.gz | |
tar zxf protobuf-2.5.0.tar.gz | |
cd protobuf-2.5.0 | |
./configure | |
make | |
sudo make install |
7. 给 Hadoop 源码打一个 patch
最新的 Hadoop 2.2.0 的 Source Code 压缩包解压出来的 code 有个 bug 需要 patch 后才能编译。否则编译 hadoop-auth 会提示下面错误:
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:2.5.1:testCompile (default-testCompile) on project hadoop-auth: Compilation failure: Compilation failure: | |
[ERROR] /home/chuan/trunk/hadoop-common-project/hadoop-auth/src/test/java/org/apache/hadoop/security/authentication/client/AuthenticatorTestCase.java:[84,13] cannot access org.mortbay.component.AbstractLifeCycle | |
[ERROR] class file for org.mortbay.component.AbstractLifeCycle not found |
Patch: https://issues.apache.org/jira/browse/HADOOP-10110
8. 编译 Hadoop
cd hadoop-2.2.0-src | |
mvn package -DskipTests -Pdist,native -Dtar |
9. 替换掉 32 位的 native 库
用 hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/lib/native
替换掉 hadoop-2.2.0/lib/native
。
rm -rf ~/local/opt/hadoop-2.2.0/lib/native | |
cp ./hadoop-dist/target/hadoop-2.2.0/lib/native ~/local/opt/hadoop-2.2.0/lib/ |
然后重启 Hadoop 集群,会看到控制台下不再有警告信息了。
10 解决 Ubuntu 下启动失败的问题
在 Ubuntu 上,那就不是一点 WARN 了,而是启动不起来,会出错,原因在于,在 ./sbin/start-dfs.sh
第 55 行,
NAMENODES=$($HADOOP_PREFIX/bin/hdfs getconf -namenodes)
在 shell 里单独运行这样命令,
./bin/hdfs getconf -namenodes | |
OpenJDK 64-Bit Server VM warning: You have loaded library /home/soulmachine/local/opt/hadoop-2.2.0/lib/native/libhadoop.so which might have disabled stack guard. The VM will try to fix the stack guard now. | |
It's highly recommended that you fix the library with'execstack -c <libfile>', or link it with'-z noexecstack'. | |
14/02/14 13:14:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable | |
localhost |
最后一行的 localhost,才是有效的 namenode,但是由于前面有一大堆 warning,脚本把这一大堆字符串,按空格隔开,每个单词都看作是 namenode,接下来就错的稀里哗啦。
根本原因,还是因为 32 位 native 库。
把自带的 32 位 native 目录删除,用编译好的 64 位 native 目录拷贝过去,再运行
./bin/hdfs getconf -namenodes | |
localhost |
这下就对了!
参考资料
- YARN 加载本地库抛出 Unable to load native-hadoop library 解决办法
- CentOS 编译 Hadoop 2.2.0 Pass 总结
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13
本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-06/132562.htm
