共计 2655 个字符,预计需要花费 7 分钟才能阅读完成。
本文介绍了 Hadoop 1.2.1 插件的编译步骤及编译后插件的配置。
1. 将 Haoop 1.2.1 源文件 hadoop-1.2.1.tar.gz 解压到 D:\hadoop-1.2.1
2. 将项目导入 Eclipse
3. 将 build-contrib.xml 拷贝到项目下。
4. 修改 build.xml
1). 指定 build-contrib.xml 路径
<import file=“./build-contrib.xml”/>
2). 添加 Hadoop 相关包到 classpath 中
<!– Override classpath to include Eclipse SDK jars –>
<path id=“classpath”>
<!–pathelement location=”${build.classes}”/–>
<!–pathelement location=”${hadoop.root}/build/classes”/–>
<pathelement location=”${hadoop.root}/hadoop-core-1.2.1.jar”/>
<pathelement location=”${hadoop.root}/lib/*”/>
<path refid=“eclipse-sdk-jars”/>
</path>
3). 拷贝相关包到项目 lib 目录下,然后打包到 jar 文件。
<target name=“jar” depends=“compile” unless=“skip.contrib”>
<mkdir dir=“${build.dir}/lib”/>
<copy file=”${hadoop.root}/hadoop-core-${version}.jar” tofile=”${build.dir}/lib/hadoop-core.jar” verbose=”true”/>
<copy file=”${hadoop.root}/lib/commons-cli-1.2.jar” todir=”${build.dir}/lib” verbose=”true”/>
<copy file=”${hadoop.root}/lib/commons-lang-2.4.jar” todir=”${build.dir}/lib” verbose=”true”/>
<copy file=”${hadoop.root}/lib/commons-configuration-1.6.jar” todir=”${build.dir}/lib” verbose=”true”/>
<copy file=”${hadoop.root}/lib/jackson-mapper-asl-1.8.8.jar” todir=”${build.dir}/lib” verbose=”true”/>
<copy file=”${hadoop.root}/lib/jackson-core-asl-1.8.8.jar” todir=”${build.dir}/lib” verbose=”true”/>
<copy file=”${hadoop.root}/lib/commons-httpclient-3.0.1.jar” todir=”${build.dir}/lib” verbose=”true”/>
<jar
jarfile=“${build.dir}/hadoop-${name}-${version}.jar”
manifest=“${root}/META-INF/MANIFEST.MF”>
<fileset dir=“${build.dir}” includes=“classes/ lib/”/>
<fileset dir=“${root}” includes=“resources/ plugin.xml”/>
</jar>
</target>
5. 修改 build-contrib.xml
1). 确认 hadoop.root 属性值是否正确,如果正确,可以 hadoop 目录的绝对路径
<property name=“hadoop.root” location=“${root}/../../../”/>
2).添加如下属性
<property name=“version” value=“1.2.1”/>
<property name=“eclipse.home” location=“D:/eclipse”/>
6). 将导出的 jar 包复制到 eclipse 安装目录下的 dropins 目录中
7. 重启eclipse
8. 配置HDFDS
注意运行 eclipse 的window用户一定要用 Lunix 上的 Hadoop 用户相同,或对 Hadoop 程序有访问权限。
linux有一个 grid 组可以访问 hadoop 程序,它包含两个用户 (grid 和chujq)
windown必须使用 grid 或chujq才可以访问HDFS。
下面关于 Hadoop 的文章您也可能喜欢,不妨看看:
Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程 http://www.linuxidc.com/Linux/2015-02/113487.htm
CentOS 安装和配置 Hadoop2.2.0 http://www.linuxidc.com/Linux/2014-01/94685.htm
Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm
Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm
Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm
Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm
单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13
本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-11/125225.htm