共计 2994 个字符,预计需要花费 8 分钟才能阅读完成。
lzo 压缩格式有很快的压缩 / 解压速度和合理的压缩率,并且支持分块 (split),所以 lzo 是目前在 Hadoop 中最流行的压缩格式。hadoop 中的 lzo 不是自带的,如果要支持 lzo,需要另外安装。本文介绍了在 hadoop2.0 上安装和配置 lzo,同样也适用于 hadoop1.0。
相关阅读 :
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
Hadoop LZO 安装教程 http://www.linuxidc.com/Linux/2013-01/78397.htm
Hadoop 集群上使用 Lzo 压缩 http://www.linuxidc.com/Linux/2012-05/60554.htm
1 安装 linux 的 lzo 库
需要在集群的每一个节点都安装 lzo 库,假定都 64 位的机器。
在 http://rpm.pbone.net/index.php3/stat/4/idpl/12088286/dir/RedHat_el_5/com/lzo2-2.02-3.el5.rf.x86_64.rpm.html 下载 rpm 包 lzo2-2.02-3.el5.rf.x86_64.rpm 并安装
sudo rpm -ivh lzo2-2.02-3.el5.rf.x86_64.rpm
在 http://rpm.pbone.net/index.php3/stat/4/idpl/18007725/dir/redhat_el_5/com/lzo-devel-2.06-1.el5.rf.x86_64.rpm.html 下载 rpm 包 lzo-devel-2.06-1.el5.rf.x86_64.rpm 并安装
sudo rpm -ivh lzo-devel-2.06-1.el5.rf.x86_64.rpm
在 http://pkgs.repoforge.org/lzop/ 下载 rpm 包 lzop-1.03-1.el5.rf.x86_64.rpm 并安装
sudo rpm -ivh lzop-1.03-1.el5.rf.x86_64.rpm
lzop 是一个 linux 下的 lzo 压缩命令行工具,方便大家在 linux 下压缩 lzo 文件,不是必需的。
2 安装 hadoop-lzo 包
可以下载 kevinweil 的 hadoop-lzo 项目,下载地址:https://github.com/kevinweil/hadoop-lzo
也可以下载 twitter 的 hadoop-lzo 项目,下载地址:https://github.com/twitter/hadoop-lzo/
twitter 的一直在更新和维护,建议下载 twitter 的
wget https://github.com/twitter/hadoop-lzo/archive/master.zip –no-check-certificate -O master.zip
下载之后解压
upzip master.zip
解压之后是一个目录 hadoop-lzo-master
可以修改目录 hadoop-lzo-master 里的 pom.xml, 把 hadoop.current.version 的属性从 hadoop2.1.0-beta 改为 Hadoop 2.2.0(这个不修改也没有问题,不过还是建议改一下)
64 位环境的需要设置两个环境变量:
export CFLAGS=-m64
export CXXFLAGS=-m64
然后就可以用 maven 编译了
cd hadoop-lzo-master
mvn clean package -Dmaven.test.skip=true
注意:如果前面的 linux lzo 库没有安装在标准目录下,在用 maven 编译前需要设置 C_INCLUDE_PATH 和 LIBRARY_PATH 这两个环境变量,指出 lzo 的头文件和库文件在哪个目录,如:
export C_INCLUDE_PATH=/usr/local/lzo-2.06/include
export LIBRARY_PATH=/usr/local/lzo-2.06/lib
编译好之后把编译出来的本地库和 jar 包 hadoop-lzo-0.4.18-SNAPSHOT.jar 拷贝到相应的目录,并拷贝到集群的每一个节点上的相应的目录。
cp target/native/Linux-amd64-64/* $HADOOP_HOME/lib/native/
cp target/hadoop-lzo-0.4.18-SNAPSHOT.jar $HADOOP_HOME/share/hadoop/mapreduce/lib/
3 修改 hadoop 的配置文件 core-site.xml
修改 / 增加以下 2 个参数:
<property>
<name>io.compression.codecs</name>
<value>org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.BZip2Codec,
com.hadoop.compression.lzo.LzoCodec,
com.hadoop.compression.lzo.LzopCodec
</value>
</property>
<property>
<name>io.compression.codec.lzo.class</name>
<value>com.hadoop.compression.lzo.LzoCodec</value>
</property>
4 hadoop 客户机 lzo 的安装和配置
和 hadoop 服务器的机器上的安装和配置一样。
5 测试
可以运行以下 hdfs 命令看是否成功
$HADOOP_HOME/bin/hdfs dfs -text /path/to/file.lzo
运行一个以 lzo 文件为输入的作业是否运行成功
6 实战 tips
在 hadoop2.0 中,把 maven 编译好的 jar 包 hadoop-lzo-0.4.18-SNAPSHOT.jar 拷贝到 $HADOOP_HOME/share/hadoop/mapreduce/lib/ 或者 $HADOOP_HOME/share/hadoop/mapreduce/ 目录下,不需要重启 hadoop 集群。
更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13