阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Hadoop jobhistory历史服务器介绍

207次阅读
没有评论

共计 5180 个字符,预计需要花费 13 分钟才能阅读完成。

Hadoop 自带了一个历史服务器,可以通过历史服务器查看已经运行完的 Mapreduce 作业记录,比如用了多少个 Map、用了多少个 Reduce、作业提交时间、作业启动时间、作业完成时间等信息。默认情况下,Hadoop 历史服务器是没有启动的,我们可以通过下面的命令来启动 Hadoop 历史服务器

$ sbin/mr-jobhistory-daemon.sh  start historyserver

这样我们就可以在相应机器的 19888 端口上打开历史服务器的 WEB UI 界面。可以查看已经运行完的作业情况。历史服务器可以单独在一台机器上启动,主要是通过以下的参数配置:

<property>
    <name>mapreduce.jobhistory.address</name>
    <value>0.0.0.0:10020</value>
</property>

<property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>0.0.0.0:19888</value>
</property>

上面的参数是在 mapred-site.xml 文件中进行配置,mapreduce.jobhistory.address 和 mapreduce.jobhistory.webapp.address 默认的值分别是 0.0.0.0:10020 和 0.0.0.0:19888,大家可以根据自己的情况进行相应的配置,参数的格式是 host:port。配置完上述的参数之后,重新启动 Hadoop jobhistory,这样我们就可以在 mapreduce.jobhistory.webapp.address 参数配置的主机上对 Hadoop 历史作业情况经行查看。

很多人就会问了,这些历史数据是存放在哪里的?是存放在 HDFS 中的,我们可以通过下面的配置来设置在 HDFS 的什么目录下存放历史作业记录:

<property>
    <name>mapreduce.jobhistory.done-dir</name>
    <value>${yarn.app.mapreduce.am.staging-dir}/history/done</value>
</property>

<property>
    <name>mapreduce.jobhistory.intermediate-done-dir</name>
    <value>${yarn.app.mapreduce.am.staging-dir}
                        /history/done_intermediate</value>
</property>

<property>
    <name>yarn.app.mapreduce.am.staging-dir</name>
    <value>/tmp/hadoop-yarn/staging</value>
</property>

上面的配置都默认的值,我们可以在 mapred-site.xml 文件中进行修改。其中,mapreduce.jobhistory.done-dir 参数的意思是在什么目录下存放已经运行完的 Hadoop 作业记录;mapreduce.jobhistory.intermediate-done-dir 的意思是正在运行的 Hadoop 作业记录。我们可以到 mapreduce.jobhistory.done-dir 参数配置的目录下看看里面存放的是什么东西:

[wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/
Found 2 items
drwxrwx—  – wyp supergroup          0 2013-12-03 23:36 /jobs/done/2013
drwxrwx—  – wyp supergroup          0 2014-02-01 00:02 /jobs/done/2014

[wyp@master /home/wyp/hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16
Found 27 items
drwxrwx— – wyp supergroup 0 2014-02-16 02:02 /jobs/done/2014/02/16/001216
drwxrwx— – wyp supergroup 0 2014-02-16 02:44 /jobs/done/2014/02/16/001217
drwxrwx— – wyp supergroup 0 2014-02-16 03:38 /jobs/done/2014/02/16/001218
drwxrwx— – wyp supergroup 0 2014-02-16 04:20 /jobs/done/2014/02/16/001219
drwxrwx— – wyp supergroup 0 2014-02-16 05:14 /jobs/done/2014/02/16/001220

[wyp@master hadoop]# bin/hadoop fs -ls /jobs/done/2014/02/16/001216
Found 1318 items
-rwxrwx—  3 wyp    supergroup  45541335 2014-02-16 00:11 /jobs/done/2014
/02/16/001216/job_1388830974669_1216161-1392478837250-wyp-insert+overwrite
+table+qt_city_query_ana…e%28Stage-1392480689141-5894-33-SUCCEEDED-wyp.jhist
-rwxrwx—  3 wyp    supergroup    193572 2014-02-16 00:11 /jobs/done
/2014/02/16/001216/job_1388830974669_1216161_conf.xml
-rwxrwx—  3 wyp    supergroup  45594759 2014-02-16 00:11 /jobs/done/2014
/02/16/001216/job_1388830974669_1216162-1392478837250-wyp-insert+overwrite
+table+qt_city_query_ana…e%28Stage-1392480694818-5894-33-SUCCEEDED-wyp.jhist
-rwxrwx—  3 wyp    supergroup    193572 2014-02-16 00:11 /jobs/done
/2014/02/16/001216/job_1388830974669_1216162_conf.xml

通过上面的结果我们可以得到一下几点:

(1)、历史作业记录是存放在 HDFS 目录中;

(2)、由于历史作业记录可能非常多,所以历史作业记录是按照年 / 月 / 日的形式分别存放在相应的目录中,这样便于管理和查找;

(3)、对于每一个 Hadoop 历史作业记录相关信息都用两个文件存放,后缀名分别为 *.jhist,*.xml。*.jhist 文件里存放的是具体 Hadoop 作业的详细信息,如下:

{
  ”type”: “JOB_INITED”,
  ”event”: {
    ”org.apache.hadoop.mapreduce.jobhistory.JobInited”: {
      “jobid”: “job_1388830974669_1215999”,
      ”launchTime”: 1392477383583,
      “totalMaps”: 1,
      ”totalReduces”: 1,
      ”jobStatus”: “INITED”,
      ”uberized”: false
    }
}
}

这是 Hadoop JOB 初始化的一条信息,通过观察我们知道,*.jhist 文件里面全部都是 Json 格式的数据。根据 type 进行区分这条 Json 的含义,在 Hadoop 中,总共包含了一下几个 type:

“JOB_SUBMITTED”,
“JOB_INITED”,
“JOB_FINISHED”,
“JOB_PRIORITY_CHANGED”,
“JOB_STATUS_CHANGED”,
“JOB_FAILED”,
“JOB_KILLED”,
“JOB_ERROR”,
“JOB_INFO_CHANGED”,
“TASK_STARTED”,
“TASK_FINISHED”,
“TASK_FAILED”,
“TASK_UPDATED”,
“NORMALIZED_RESOURCE”,
“MAP_ATTEMPT_STARTED”,
“MAP_ATTEMPT_FINISHED”,
“MAP_ATTEMPT_FAILED”,
“MAP_ATTEMPT_KILLED”,
“REDUCE_ATTEMPT_STARTED”,
“REDUCE_ATTEMPT_FINISHED”,
“REDUCE_ATTEMPT_FAILED”,
“REDUCE_ATTEMPT_KILLED”,
“SETUP_ATTEMPT_STARTED”,
“SETUP_ATTEMPT_FINISHED”,
“SETUP_ATTEMPT_FAILED”,
“SETUP_ATTEMPT_KILLED”,
“CLEANUP_ATTEMPT_STARTED”,
“CLEANUP_ATTEMPT_FINISHED”,
“CLEANUP_ATTEMPT_FAILED”,
“CLEANUP_ATTEMPT_KILLED”,
“AM_STARTED”

而 *.xml 文件里面记录的是相应作业运行时候的完整参数配置,大家可以进去查看一下。

(4)、每一个作业的历史记录都存放在一个单独的文件中。

  mapreduce.jobhistory.intermediate-done-dir 配置的目录下主要存放的是当前正在运行的 Hadoop 任务的记录相关信息,感兴趣的同学可以进去看看,这里就不介绍了。

  如果对 Hadoop 历史服务器 WEB UI 上提供的数据不满意,我们就可以通过对 mapreduce.jobhistory.done-dir 配置的目录进行分析,得到我们感兴趣的信息,比如统计某天中运行了多少个 map、运行最长的作业用了多少时间、每个用户运行的 Mapreduce 任务数、总共运行了多少 Mapreduce 数等信息,这样对监控 Hadoop 集群是很好的,我们可以根据那些信息来确定怎么给某个用户分配资源等等。

细心的同学可能发现,在 Hadoop 历史服务器的 WEB UI 上最多显示 20000 个历史的作业记录信息;其实我们可以通过下面的参数进行配置,然后重启一下 Hadoop jobhistory 即可。

<property>
    <name>mapreduce.jobhistory.joblist.cache.size</name>
    <value>20000</value>
</property>

Ubuntu14.04 下 Hadoop2.4.1 单机 / 伪分布式安装配置教程  http://www.linuxidc.com/Linux/2015-02/113487.htm

CentOS 安装和配置 Hadoop2.2.0  http://www.linuxidc.com/Linux/2014-01/94685.htm

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

更多 Hadoop 相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计5180字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中