阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop 2.5.2版本安装部署

207次阅读
没有评论

共计 10398 个字符,预计需要花费 26 分钟才能阅读完成。

Hadoop 2.5.2 版本安装部署

软件及版本:

Hadoop版本

hadoop-2.5.2

 

操作系统

Red Hat Linux 6.4

32bit

JDK版本

jdk-8u25-linux-i586.rpm

 

软件准备:

下载 hadoop-2.5.2:

wget http://mirror.bit.edu.cn/apache/hadoop/common/stable2/hadoop-2.5.2.tar.gz

下载 JDK:jdk-8u25-linux-i586.rpm
      http://www.Oracle.com/technetwork/java/javase/index.html

总体的流程如下:
1、实现 ssh 无密码验证配置
2、安装 jdk,并配好环境变量
3、安装与配置 Hadoop
4、格式化与启动
5、验证是否启动

Hadoop2.5.2 新特性  http://www.linuxidc.com/Linux/2014-11/109814.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

 一. 主机之间 SSH 无密码验证
 利用 :  ssh-kengen –t rsa 命令产生公钥,将个主机之间的公钥,相互拷贝到 authorized_keys 文件内。

 二. 安装 JDK
安装好后,用 java -version 检验下

 配置环境变量:

###set java_env

export JAVA_HOME=/usr/java/jdk1.8.0_25/
export JRE_HOME=/usr/java/jdk1.8.0_25/jre
export CLASS_PATH=.:$CLASS_PATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

###set hadoop_env
export HADOOP_HOME=/home/linuxidc/hadoop-2.5.2
 
 export HADOOP_COMMON_HOME=$HADOOP_HOME
 export HADOOP_HDFS_HOME=$HADOOP_HOME
 export HADOOP_MAPRED_HOME=$HADOOP_HOME
 export HADOOP_YARN_HOME=$HADOOP_HOME
 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
 
 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
 export HADOOP_OPTS=\”-Djava.library.path=$HADOOP_HOME/lib\”

三. 部署配置 Hadoop
解压 Hadoop 到 自己的 hadoop 目录

 配置相关的配置文件
2.5.x 版本的配置文件在:$Hadoop_Home/etc/hadoop  目录下
2.X 版本较 1.X 版本改动很大,主要是用 Hadoop MapReduceV2(Yarn) 框架代替了一代的架构,其中 JobTracker 和 TaskTracker 不见了,取而代之的是 ResourceManager, ApplicationMaster 与 NodeManager 三个部分,而具体的配置文件位置与内容也都有了相应变化,具体的可参考文献:http://www.linuxidc.com/Linux/2013-09/90090.htm

(1)hadoop/etc/hadoop/hadoop-env.sh 与 hadoop/etc/hadoop/yarn-env.sh 来配置两个文件里的 JAVA_HOME

(2)etc/hadoop/core-site.xml,配置为:

<configuration>

 

<property>

<name>hadoop.tmp.dir</name>

<value>/home/linuxidc/hadoop-2.5.2/tmp</value>

<description>A base for other temporary directories.</description>

</property>

 

<property>

 <name>fs.default.name</name>

 <value>hdfs://namenode:9000</value>

 </property>

 

 <property>

 <name>io.file.buffer.size</name>

 <value>131072</value>

 </property>

 

 <property>

 <name>hadoop.proxyuser.root.hosts</name>

 <value>namenode</value>

 </property> 

 <property>

 <name>hadoop.proxyuser.root.groups</name>

 <value>*</value>

 </property> 

 </configuration>

(3)etc/hadoop/hdfs-site.xml,配置为:(注意:这里需要自己手动用 mkdir 创建 name 和 data 文件夹,具体位置也可以自己选择,其中 dfs.replication 的值建议配置为与分布式 cluster 中实际的 DataNode 主机数一致。)

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/linuxidc/hadoop-2.5.2/hdfs/name</value>

<final>true</final>

</property>

 

<property>

<name>dfs.datanode.data.dir</name>

 <value>/home/linuxidc/hadoop-2.5.2/hdfs/data</value>

 <final>true</final>

 </property>

 

 <property>

 <name>dfs.replication</name>

 <value>2</value>

 </property>

 

 <property>

 <name>dfs.permissions</name>

 <value>false</value>

 </property>

 

 </configuration>

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-12/110260p2.htm

(4)etc/Hadoop/mapred-site.xml,配置为:

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>Yarn</value>

</property>

 

<property>

<name>mapreduce.jobhistory.address</name>

<value>namenode:10020</value>

 </property>

 

 <property>

 <name>mapreduce.jobhistory.webapp.address</name>

 <value>namenode:19888</value>

 </property>

 

 <property>

 <name>mapreduce.jobhistory.intermediate-done-dir</name>

 <value>/mr-history/tmp</value>

 </property>

 

 <property>

 <name>mapreduce.jobhistory.done-dir</name>

 <value>/mr-history/done</value>

 </property>

 

 </configuration>

(5)etc/hadoop/yarn-site.xml 对 yarn 进行配置:

<configuration>

 

<!– Site specific YARN configuration properties –>

 

<property>

<name>Yarn.nodemanager.aux-services</name>

<value>mapreduce.shuffle</value>

</property>

 

 <property>

 <name>Yarn.resourcemanager.address</name>

 <value>namenode:18040</value>

 </property>

 

 <property>

 <name>Yarn.resourcemanager.scheduler.address</name>

 <value>namenode:18030</value>

 </property>

 

 <property>

 <name>Yarn.resourcemanager.resource-tracker.address</name>

 <value>namenode:18025</value>

 </property>

 

 <property>

 <name>Yarn.resourcemanager.admin.address</name>

 <value>namenode:18041</value>

 </property>

 

 <property>

 <name>Yarn.resourcemanager.webapp.address</name>

 <value>namenode:8088</value>

 </property>

 

 <property>

 <name>Yarn.nodemanager.local-dirs</name>

 <value>/home/linuxidc/hadoop-2.5.2/mynode/my</value>

 </property>

 

 <property>

 <name>Yarn.nodemanager.log-dirs</name>

 <value>/home/linuxidc/hadoop-2.5.2/mynode/logs</value>

 </property>

 

 <property>

 <name>Yarn.nodemanager.log.retain-seconds</name>

 <value>10800</value>

 </property>

 

 <property>

 <name>Yarn.nodemanager.remote-app-log-dir</name>

 <value>/logs</value>

 </property>

 

 <property>

 <name>Yarn.nodemanager.remote-app-log-dir-suffix</name>

 <value>logs</value>

 </property>

 

 <property>

 <name>Yarn.log-aggregation.retain-seconds</name>

 <value>-1</value>

 </property>

 

 <property>

 <name>Yarn.log-aggregation.retain-check-interval-seconds</name>

 <value>-1</value>

 </property>

 </configuration>

四. 启动测试
(1)用 scp 命令将 hadoop 文件夹拷贝到所有的节点机器相同路径上。
(2)验证一下 SSH 无密码访问已经没有问题了
(3)关闭防火墙
      如果不关闭的话可能造成,无法访问端口的问题。不关闭防火墙也可以将对应的相关端口打开比如 namenode 上:9000 端口
      方法:http://blog.itpub.net/28929558/viewspace-1353996/

(4)启动测试
格式化:namdenode
    hadoop/bin/hadoop namenode -format

查看打印信息的倒数第三行:Storage directory ~/hadoop-2.5.2/hdfs/name has been successfully formatted
则说明成功了!

启动 hdfs:
    sbin/start-dfs.sh
 jps 查看 namenode 上: NameNode    SecondaryNameNode
            datanode shang : DataNode

启动 yarn:start-yarn.sh
jps 查看 namenode 上: NameNode    SecondaryNameNode  ResourceManager
            datanode shang : DataNode    NodeManager

用 hdfs  dfsadmin -report 检验一下
9189 NameNode
 [linuxidc@namenode sbin]$ hdfs dfsadmin -report
 14/12/01 23:19:15 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
 Configured Capacity: 8177262592 (7.62 GB)
 Present Capacity: 4473057280 (4.17 GB)
 DFS Remaining: 4473032704 (4.17 GB)
 DFS Used: 24576 (24 KB)
 DFS Used%: 0.00%
 Under replicated blocks: 0
 Blocks with corrupt replicas: 0
 Missing blocks: 0

 ————————————————-
 Live datanodes (1):

 Name: 10.0.128.124:50010 (datanode01)
 Hostname: datanode01
 Decommission Status : Normal
 Configured Capacity: 8177262592 (7.62 GB)
 DFS Used: 24576 (24 KB)
 Non DFS Used: 3704205312 (3.45 GB)
 DFS Remaining: 4473032704 (4.17 GB)
 DFS Used%: 0.00%
 DFS Remaining%: 54.70%
 Configured Cache Capacity: 0 (0 B)
 Cache Used: 0 (0 B)
 Cache Remaining: 0 (0 B)
 Cache Used%: 100.00%
 Cache Remaining%: 0.00%
 Xceivers: 1
 Last contact: Mon Dec 01 23:19:15 PST 2014

 
测试放入数据文件,并查看:

[linuxidc@namenode sbin]$ hadoop fs -put ../../input/ /input
14/12/02 00:18:01 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

 [linuxidc@namenode sbin]$ hadoop fs -cat /input/test.txt
 14/12/02 00:18:35 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable
 hello word !

验证完毕!

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

Hadoop 2.5.2 版本安装部署

软件及版本:

Hadoop版本

hadoop-2.5.2

 

操作系统

Red Hat Linux 6.4

32bit

JDK版本

jdk-8u25-linux-i586.rpm

 

软件准备:

下载 hadoop-2.5.2:

wget http://mirror.bit.edu.cn/apache/hadoop/common/stable2/hadoop-2.5.2.tar.gz

下载 JDK:jdk-8u25-linux-i586.rpm
      http://www.Oracle.com/technetwork/java/javase/index.html

总体的流程如下:
1、实现 ssh 无密码验证配置
2、安装 jdk,并配好环境变量
3、安装与配置 Hadoop
4、格式化与启动
5、验证是否启动

Hadoop2.5.2 新特性  http://www.linuxidc.com/Linux/2014-11/109814.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

 一. 主机之间 SSH 无密码验证
 利用 :  ssh-kengen –t rsa 命令产生公钥,将个主机之间的公钥,相互拷贝到 authorized_keys 文件内。

 二. 安装 JDK
安装好后,用 java -version 检验下

 配置环境变量:

###set java_env

export JAVA_HOME=/usr/java/jdk1.8.0_25/
export JRE_HOME=/usr/java/jdk1.8.0_25/jre
export CLASS_PATH=.:$CLASS_PATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin

###set hadoop_env
export HADOOP_HOME=/home/linuxidc/hadoop-2.5.2
 
 export HADOOP_COMMON_HOME=$HADOOP_HOME
 export HADOOP_HDFS_HOME=$HADOOP_HOME
 export HADOOP_MAPRED_HOME=$HADOOP_HOME
 export HADOOP_YARN_HOME=$HADOOP_HOME
 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
 
 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
 export HADOOP_OPTS=\”-Djava.library.path=$HADOOP_HOME/lib\”

三. 部署配置 Hadoop
解压 Hadoop 到 自己的 hadoop 目录

 配置相关的配置文件
2.5.x 版本的配置文件在:$Hadoop_Home/etc/hadoop  目录下
2.X 版本较 1.X 版本改动很大,主要是用 Hadoop MapReduceV2(Yarn) 框架代替了一代的架构,其中 JobTracker 和 TaskTracker 不见了,取而代之的是 ResourceManager, ApplicationMaster 与 NodeManager 三个部分,而具体的配置文件位置与内容也都有了相应变化,具体的可参考文献:http://www.linuxidc.com/Linux/2013-09/90090.htm

(1)hadoop/etc/hadoop/hadoop-env.sh 与 hadoop/etc/hadoop/yarn-env.sh 来配置两个文件里的 JAVA_HOME

(2)etc/hadoop/core-site.xml,配置为:

<configuration>

 

<property>

<name>hadoop.tmp.dir</name>

<value>/home/linuxidc/hadoop-2.5.2/tmp</value>

<description>A base for other temporary directories.</description>

</property>

 

<property>

 <name>fs.default.name</name>

 <value>hdfs://namenode:9000</value>

 </property>

 

 <property>

 <name>io.file.buffer.size</name>

 <value>131072</value>

 </property>

 

 <property>

 <name>hadoop.proxyuser.root.hosts</name>

 <value>namenode</value>

 </property> 

 <property>

 <name>hadoop.proxyuser.root.groups</name>

 <value>*</value>

 </property> 

 </configuration>

(3)etc/hadoop/hdfs-site.xml,配置为:(注意:这里需要自己手动用 mkdir 创建 name 和 data 文件夹,具体位置也可以自己选择,其中 dfs.replication 的值建议配置为与分布式 cluster 中实际的 DataNode 主机数一致。)

<configuration>

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/linuxidc/hadoop-2.5.2/hdfs/name</value>

<final>true</final>

</property>

 

<property>

<name>dfs.datanode.data.dir</name>

 <value>/home/linuxidc/hadoop-2.5.2/hdfs/data</value>

 <final>true</final>

 </property>

 

 <property>

 <name>dfs.replication</name>

 <value>2</value>

 </property>

 

 <property>

 <name>dfs.permissions</name>

 <value>false</value>

 </property>

 

 </configuration>

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-12/110260p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计10398字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中