共计 6299 个字符,预计需要花费 16 分钟才能阅读完成。
理想情况下,我们应用对 Yarn 资源的请求应该立刻得到满足,但现实情况资源往往是有限的,特别是在一个很繁忙的集群,一个应用资源的请求经常需要等待一段时间才能的到相应的资源。在 Yarn 中,负责给应用分配资源的就是 Scheduler。其实调度本身就是一个难题,很难找到一个完美的策略可以解决所有的应用场景。为此,Yarn 提供了多种调度器和可配置的策略供我们选择。
一、调度器的选择
在 Yarn 中有三种调度器可以选择:FIFO Scheduler
,Capacity Scheduler
,FairScheduler
。
FIFO Scheduler
把应用按提交的顺序排成一个队列,这是一个先进先出队列,在进行资源分配的时候,先给队列中最头上的应用进行分配资源,待最头上的应用需求满足后再给下一个分配,以此类推。
FIFO Scheduler
是最简单也是最容易理解的调度器,也不需要任何配置,但它并不适用于共享集群。大的应用可能会占用所有集群资源,这就导致其它应用被阻塞。在共享集群中,更适合采用 Capacity Scheduler
或Fair Scheduler
,这两个调度器都允许大任务和小任务在提交的同时获得一定的系统资源。
下面 “Yarn 调度器对比图” 展示了这几个调度器的区别,从图中可以看出,在 FIFO 调度器中,小任务会被大任务阻塞。
而对于 Capacity 调度器,有一个专门的队列用来运行小任务,但是为小任务专门设置一个队列会预先占用一定的集群资源,这就导致大任务的执行时间会落后于使用 FIFO 调度器时的时间。
在 Fair 调度器中,我们不需要预先占用一定的系统资源,Fair 调度器会为所有运行的 job 动态的调整系统资源。如下图所示,当第一个大 job 提交时,只有这一个 job 在运行,此时它获得了所有集群资源;当第二个小任务提交后,Fair 调度器会分配一半资源给这个小任务,让这两个任务公平的共享集群资源。
需要注意的是,在下图 Fair 调度器中,从第二个任务提交到获得资源会有一定的延迟,因为它需要等待第一个任务释放占用的 Container。小任务执行完成之后也会释放自己占用的资源,大任务又获得了全部的系统资源。最终的效果就是 Fair 调度器即得到了高的资源利用率又能保证小任务及时完成。
Yarn 调度器对比图:
二、Capacity Scheduler(容器调度器)的配置
2.1 容器调度介绍
Capacity 调度器允许多个组织共享整个集群,每个组织可以获得集群的一部分计算能力。通过为每个组织分配专门的队列,然后再为每个队列分配一定的集群资源,这样整个集群就可以通过设置多个队列的方式给多个组织提供服务了。除此之外,队列内部又可以垂直划分,这样一个组织内部的多个成员就可以共享这个队列资源了,在一个队列内部,资源的调度是采用的是先进先出 (FIFO) 策略。
通过上面那幅图,我们已经知道一个 job 可能使用不了整个队列的资源。然而如果这个队列中运行多个 job,如果这个队列的资源够用,那么就分配给这些 job,如果这个队列的资源不够用了呢?其实 Capacity 调度器仍可能分配额外的资源给这个队列,这就是 “弹性队列”(queue elasticity) 的概念。
在正常的操作中,Capacity 调度器不会强制释放 Container,当一个队列资源不够用时,这个队列只能获得其它队列释放后的 Container 资源。当然,我们可以为队列设置一个最大资源使用量,以免这个队列过多的占用空闲资源,导致其它队列无法使用这些空闲资源,这就是”弹性队列”需要权衡的地方。
2.2 容器调度的配置
假设我们有如下层次的队列:
root
├── prod
└── dev
├── eng
└── science
下面是一个简单的 Capacity 调度器的配置文件,文件名为 capacity-scheduler.xml
。在这个配置中,在 root 队列下面定义了两个子队列prod
和dev
,分别占 40% 和 60% 的容量。需要注意,一个队列的配置是通过属性 yarn.sheduler.capacity.<queue-path>.<sub-property>
指定的,<queue-path>
代表的是队列的继承树,如 root.prod
队列,<sub-property>
一般指 capacity
和maximum-capacity
。
我们可以看到,dev
队列又被分成了 eng
和science
两个相同容量的子队列。dev
的 maximum-capacity
属性被设置成了 75%,所以即使 prod
队列完全空闲 dev
也不会占用全部集群资源,也就是说,prod
队列仍有 25% 的可用资源用来应急。我们注意到,eng
和 science
两个队列没有设置 maximum-capacity
属性,也就是说 eng
或science
队列中的 job 可能会用到整个 dev
队列的所有资源(最多为集群的 75%)。而类似的,prod
由于没有设置 maximum-capacity 属性,它有可能会占用集群全部资源。
Capacity 容器除了可以配置队列及其容量外,我们还可以配置一个用户或应用可以分配的最大资源数量、可以同时运行多少应用、队列的 ACL 认证等。
2.3 队列的设置
关于队列的设置,这取决于我们具体的应用。比如,在 MapReduce 中,我们可以通过 mapreduce.job.queuename
属性指定要用的队列。如果队列不存在,我们在提交任务时就会收到错误。如果我们没有定义任何队列,所有的应用将会放在一个 default
队列中。
注意:对于 Capacity 调度器,我们的队列名必须是队列树中的最后一部分,如果我们使用队列树则不会被识别。比如,在上面配置中,我们使用 prod
和eng
作为队列名是可以的,但是如果我们用 root.dev.eng
或者 dev.eng
是无效的。
三、Fair Scheduler(公平调度器)的配置
3.1 公平调度
Fair 调度器的设计目标是为所有的应用分配公平的资源(对公平的定义可以通过参数来设置)。在上面的 “Yarn 调度器对比图” 展示了一个队列中两个应用的公平调度;当然,公平调度在也可以在多个队列间工作。举个例子,假设有两个用户 A 和 B,他们分别拥有一个队列。当 A 启动一个 job 而 B 没有任务时,A 会获得全部集群资源;当 B 启动一个 job 后,A 的 job 会继续运行,不过一会儿之后两个任务会各自获得一半的集群资源。如果此时 B 再启动第二个 job 并且其它 job 还在运行,则它将会和 B 的第一个 job 共享 B 这个队列的资源,也就是 B 的两个 job 会用于四分之一的集群资源,而 A 的 job 仍然用于集群一半的资源,结果就是资源最终在两个用户之间平等的共享。过程如下图所示:
3.2 启用 Fair Scheduler
调度器的使用是通过 yarn-site.xml
配置文件中的 yarn.resourcemanager.scheduler.class
参数进行配置的,默认采用 Capacity Scheduler 调度器。如果我们要使用 Fair 调度器,需要在这个参数上配置 FairScheduler 类的全限定名:org.apache.Hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler
。
3.3 队列的配置
Fair 调度器的配置文件位于类路径下的 fair-scheduler.xml
文件中,这个路径可以通过 yarn.scheduler.fair.allocation.file
属性进行修改。若没有这个配置文件,Fair 调度器采用的分配策略,这个策略和 3.1 节介绍的类似:调度器会在用户提交第一个应用时为其自动创建一个队列,队列的名字就是用户名,所有的应用都会被分配到相应的用户队列中。
我们可以在配置文件中配置每一个队列,并且可以像 Capacity 调度器一样分层次配置队列。比如,参考 capacity-scheduler.xml
来配置 fair-scheduler:
队列的层次是通过嵌套 <queue>
元素实现的。所有的队列都是 root
队列的孩子,即使我们没有配到 <root>
元素里。在这个配置中,我们把 dev
队列有分成了 eng
和science
两个队列。
Fair 调度器中的队列有一个权重属性(这个权重就是对公平的定义),并把这个属性作为公平调度的依据。在这个例子中,当调度器分配集群 40:60
资源给 prod
和dev
时便视作公平,eng
和 science
队列没有定义权重,则会被平均分配。这里的权重并不是百分比,我们把上面的 40 和 60 分别替换成 2 和 3,效果也是一样的。注意,对于在没有配置文件时按用户自动创建的队列,它们仍有权重并且权重值为 1。
每个队列内部仍可以有不同的调度策略。队列的默认调度策略可以通过顶级元素 <defaultQueueSchedulingPolicy>
进行配置,如果没有配置,默认采用公平调度。
尽管是 Fair 调度器,其仍支持在队列级别进行 FIFO 调度。每个队列的调度策略可以被其内部的 <schedulingPolicy>
元素覆盖,在上面这个例子中,prod
队列就被指定采用 FIFO 进行调度,所以,对于提交到 prod
队列的任务就可以按照 FIFO 规则顺序的执行了。需要注意,prod
和 dev
之间的调度仍然是公平调度,同样 eng
和science
也是公平调度。
尽管上面的配置中没有展示,每个队列仍可配置最大、最小资源占用数和最大可运行的应用的数量。
3.4 队列的设置
Fair 调度器采用了一套基于规则的系统来确定应用应该放到哪个队列。在上面的例子中,<queuePlacementPolicy>
元素定义了一个规则列表,其中的每个规则会被逐个尝���直到匹配成功。例如,上例第一个规则 specified
,则会把应用放到它指定的队列中,若这个应用没有指定队列名或队列名不存在,则说明不匹配这个规则,然后尝试下一个规则。primaryGroup
规则会尝试把应用放在以 用户所在的 Unix 组名 命名的队列中,如果没有这个队列,不创建队列转而尝试下一个规则。当前面所有规则不满足时,则触发 default
规则,把应用放在 dev.eng
队列中。
当然,我们可以不配置 queuePlacementPolicy
规则,调度器则默认采用如下规则:
<queuePlacementPolicy>
<rule name="specified" />
<rule name="user" />
</queuePlacementPolicy>
上面规则可以归结成一句话,除非队列被准确的定义,否则会以用户名为队列名创建队列。
还有一个简单的配置策略可以使得所有的应用放入同一个队列(default),这样就可以让所有应用之间平等共享集群而不是在用户之间。这个配置的定义如下:
<queuePlacementPolicy>
<rule name="default" />
</queuePlacementPolicy>
实现上面功能我们还可以不使用配置文件,直接设置yarn.scheduler.fair.user-as-default-queue=false
,这样应用便会被放入 default 队列,而不是各个用户名队列。另外,我们还可以设置yarn.scheduler.fair.allow-undeclared-pools=false
,这样用户就无法创建队列了。
3.5 抢占(Preemption)
当一个 job 提交到一个繁忙集群中的空队列时,job 并不会马上执行,而是阻塞直到正在运行的 job 释放系统资源。为了使提交 job 的执行时间更具预测性(可以设置等待的超时时间),Fair 调度器支持抢占。
抢占就是允许调度器杀掉占用超过其应占份额资源队列的 containers,这些 containers 资源便可被分配到应该享有这些份额资源的队列中。需要注意抢占会降低集群的执行效率,因为被终止的 containers 需要被重新执行。
可以通过设置一个全局的参数 yarn.scheduler.fair.preemption=true
来启用抢占功能。此外,还有两个参数用来控制抢占的过期时间(这两个参数默认没有配置,需要至少配置一个来允许抢占 Container):
- minimum share preemption timeout
- fair share preemption timeout
如果队列在 minimum share preemption timeout
指定的时间内未获得最小的资源保障,调度器就会抢占 containers。我们可以通过配置文件中的顶级元素 <defaultMinSharePreemptionTimeout>
为所有队列配置这个超时时间;我们还可以在 <queue>
元素内配置 <minSharePreemptionTimeout>
元素来为某个队列指定超时时间。
与之类似,如果队列在 fair share preemption timeout
指定时间内未获得平等的资源的一半(这个比例可以配置),调度器则会进行抢占 containers。这个超时时间可以通过顶级元素 <defaultFairSharePreemptionTimeout>
和元素级元素 <fairSharePreemptionTimeout>
分别配置所有队列和某个队列的超时时间。上面提到的比例可以通过 <defaultFairSharePreemptionThreshold>
(配置所有队列) 和<fairSharePreemptionThreshold>
(配置某个队列)进行配置,默认是 0.5。
Hadoop2.3-HA 高可用集群环境搭建 http://www.linuxidc.com/Linux/2017-03/142155.htm
Hadoop 项目之基于 CentOS7 的 Cloudera 5.10.1(CDH)的安装部署 http://www.linuxidc.com/Linux/2017-04/143095.htm
Hadoop2.7.2 集群搭建详解(高可用)http://www.linuxidc.com/Linux/2017-03/142052.htm
使用 Ambari 来部署 Hadoop 集群(搭建内网 HDP 源)http://www.linuxidc.com/Linux/2017-03/142136.htm
Ubuntu 14.04 下 Hadoop 集群安装 http://www.linuxidc.com/Linux/2017-02/140783.htm
CentOS 6.7 安装 Hadoop 2.7.2 http://www.linuxidc.com/Linux/2017-08/146232.htm
Ubuntu 16.04 上构建分布式 Hadoop-2.7.3 集群 http://www.linuxidc.com/Linux/2017-07/145503.htm
CentOS 7 下 Hadoop 2.6.4 分布式集群环境搭建 http://www.linuxidc.com/Linux/2017-06/144932.htm
Hadoop2.7.3+Spark2.1.0 完全分布式集群搭建过程 http://www.linuxidc.com/Linux/2017-06/144926.htm
更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13
本文永久更新链接地址:http://www.linuxidc.com/Linux/2018-02/150813.htm