阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Apache Hadoop 2.2.0 HDFS HA + YARN多机部署

264次阅读
没有评论

共计 18912 个字符,预计需要花费 48 分钟才能阅读完成。

部署逻辑架构:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

HDFS HA 部署物理架构

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

注意:

JournalNode 使用资源很少,即使在实际的生产环境中,也是把 JournalNode 和 DataNode 部署在同一台机器上;

生产环境中,建议主备 NameNode 各单独一台机器。

YARN 部署架构:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

个人实验环境部署图:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

Ubuntu12 32bit

apache Hadoop 2.2.0

jdk1.7

===============================================

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

===============================================

准备工作
1. 在 4 台机器都配置 hosts;
2. 配置 NameNode 节点可以免密码登录到其余所有节点,只需要单向免密登录即可,无需双向;
免密码登录仅仅在启动、停止集群时使用。
3. 安装 jdk
4. 创建专门的账号,不要用 root 账号部署、管理 hadoop



部署 hadoop
第一步:把 hadoop 安装包解压到每一个节点(可以解压到一个节点,然后完成后续第 2 步的配置后,再 scp 拷贝到其余节点)的固定目录下(各节点目录统一),比如 /home/yarn/Hadoop/hadoop-2.2.0
第二步:修改配置文件(只需在一个节点上配置,配置好后再用 scp 分发到其余节点)
配置文件路径:etc/hadoop/
hadoop-env.sh
修改 JDK 路径,在文件中搜索以下行,将 JAVA_HOME 设置为 JDK 安装路径即可:
# The java implementation to use.
export JAVA_HOME=/usr/lib/jvm/java-6-sun

core-site.xml
指定 Active NameNode 的 host 名 /ip 和端口号,端口号可以根据自己的需要修改:
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://SY-0217:8020</value>
</property>
</configuration>
注意:以上配置的 SY-0217 是固定 host,只适用于手动切换主备 NameNode 的场景,如果需要通过 ZooKeeper 来自动切换,则需要配置逻辑名称,后面会详述。

mapred-site.xml
 
<configuration>
<!– MR YARN Application properties –>
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  <description>The runtime framework for executing MapReduce jobs.
  Can be one of local, classic or yarn.
  </description>
</property>
 
<!–
jobhistory properties
jobhistory server,可以通过它查看已经运行完的应用程序的信息。
–>
<property>
  <name>mapreduce.jobhistory.address</name>
  <value>SY-0355:10020</value>
  <description>MapReduce JobHistory Server IPC host:port</description>
</property>
 
<property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>SY-0355:19888</value>
  <description>MapReduce JobHistory Server Web UI host:port</description>
</property>
</configuration>

hdfs-site.xml
非常关键的配置文件!
<configuration>
 
<property>
  <name>dfs.nameservices</name>
  <value>hadoop-test</value>
  <description>
    指定命名空间名称,可随意起名
    Comma-separated list of nameservices.
  </description>
</property>
 
<property>
  <name>dfs.ha.namenodes.hadoop-test</name>
  <value>nn1,nn2</value>
  <description>
    在命名空间下指定 NameNode 逻辑名
    The prefix for a given nameservice, contains a comma-separated
    list of namenodes for a given nameservice (eg EXAMPLENAMESERVICE).
  </description>
</property>
 
<property>
  <name>dfs.namenode.rpc-address.hadoop-test.nn1</name>
  <value>SY-0217:8020</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 rpc 地址
    RPC address for nomenode1 of hadoop-test
  </description>
</property>
 
<property>
  <name>dfs.namenode.rpc-address.hadoop-test.nn2</name>
  <value>SY-0355:8020</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 rpc 地址
    RPC address for nomenode2 of hadoop-test
  </description>
</property>
 
<property>
  <name>dfs.namenode.http-address.hadoop-test.nn1</name>
  <value>SY-0217:50070</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 http 地址
    The address and the base port where the dfs namenode1 web ui will listen on.
  </description>
</property>
 
<property>
  <name>dfs.namenode.http-address.hadoop-test.nn2</name>
  <value>SY-0355:50070</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 http 地址
    The address and the base port where the dfs namenode2 web ui will listen on.
  </description>
</property>
 
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:///home/dongxicheng/hadoop/hdfs/name</value>
  <description>
    配置 NameNode 元数据存放的路径;
    如果机器上有多块硬盘的话,推荐配置多个路径,用逗号分隔。
Determines where on the local filesystem the DFS name node
      should store the name table(fsimage).  If this is a comma-delimited list
      of directories then the name table is replicated in all of the
      directories, for redundancy. </description>
</property>
 
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:///home/dongxicheng/hadoop/hdfs/data</value>
  <description>
        配置 DataNode 数据存放的路径;
    如果机器上有多块硬盘的话,推荐配置多个路径,用逗号分隔。
Determines where on the local filesystem an DFS data node
  should store its blocks.  If this is a comma-delimited
  list of directories, then data will be stored in all named
  directories, typically on different devices.
  Directories that do not exist are ignored.
  </description>
</property>
 
<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://SY-0355:8485;SY-0225:8485;SY-0226:8485/hadoop-journal</value>
  <description>
    配置 JournalNode,包含三部分:
(1)qjournal 是协议,无需修改;
(2)然后就是三台部署 JournalNode 的主机 host/ip:端口,三台机器之间用分号分隔;
(3)最后的hadoop-journal 是 journalnode 的命名空间,可以随意取名。
A directory on shared storage between the multiple namenodes
  in an HA cluster. This directory will be written by the active and read
  by the standby in order to keep the namespaces synchronized. This directory
  does not need to be listed in dfs.namenode.edits.dir above. It should be
  left empty in a non-HA cluster.
  </description>
</property>
 
<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/home/dongxicheng/hadoop/hdfs/journal/</value>
  <description>
    journalnode 的本地数据存放目录,指定一个路径就够。
  </description>
</property>
 
<property>
  <name>dfs.ha.automatic-failover.enabled</name>
  <value>false</value>
  <description>
    是否自动切换。由于没有配置 ZooKeeper,所以不能实现自动切换,所以这里配置的是 false。
    Whether automatic failover is enabled. See the HDFS High
    Availability documentation for details on automatic HA
    configuration.
  </description>
</property>
 
</configuration>

yarn-site.xml
<configuration>
 
  <!– Resource Manager Configs –>
  <property>
    <description>
    指定 ResourceManager
    The hostname of the RM.</description>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
  </property>    
 
  <property>
    <description>The address of the applications manager interface in the RM.</description>
    <name>yarn.resourcemanager.address</name>
    <value>${yarn.resourcemanager.hostname}:8032</value>
  </property>
 
  <property>
    <description>The address of the scheduler interface.</description>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>${yarn.resourcemanager.hostname}:8030</value>
  </property>
 
  <property>
    <description>The http address of the RM web application.</description>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>${yarn.resourcemanager.hostname}:8088</value>
  </property>
 
  <property>
    <description>The https adddress of the RM web application.</description>
    <name>yarn.resourcemanager.webapp.https.address</name>
    <value>${yarn.resourcemanager.hostname}:8090</value>
  </property>
 
  <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>${yarn.resourcemanager.hostname}:8031</value>
  </property>
 
  <property>
    <description>The address of the RM admin interface.</description>
    <name>yarn.resourcemanager.admin.address</name>
    <value>${yarn.resourcemanager.hostname}:8033</value>
  </property>
 
  <property>
    <description>
指定 fairscheduler 调度器
The class to use as the resource scheduler.
</description>
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
  </property>
 
  <property>
    <description>
指定 fairscheduler 调度器配置文件路径
fair-scheduler conf location
</description>
    <name>yarn.scheduler.fair.allocation.file</name>
    <value>${yarn.home.dir}/etc/hadoop/fairscheduler.xml</value>
  </property>
 
  <property>
    <description>
指定 nodemanager 的本地工作目录,推荐配置多个路径,用逗号分隔
List of directories to store localized files in. An 
      application’s localized file directory will be found in:
      ${yarn.nodemanager.local-dirs}/usercache/${user}/appcache/application_${appid}.
      Individual containers’ work directories, called container_${contid}, will
      be subdirectories of this.
   </description>
    <name>yarn.nodemanager.local-dirs</name>
    <value>/home/yarn/Hadoop/yarn/local</value>
  </property>
 
  <property>
    <description>Whether to enable log aggregation</description>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
 
  <property>
    <description>Where to aggregate logs to.</description>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/home/yarn/Hadoop/yarn/tmp/logs</value>
  </property>
 
  <property>
    <description>
每个 nodemanager 上可以用的内存大小
Amount of physical memory, in MB, that can be allocated for containers.
 注意:我的 NM 虚拟机是 1G 内存,1 核 CPU,当该值配置小于 1024 时,NM 是无法启动的!会报错:
NodeManager from  slavenode2 doesn’t satisfy minimum allocations, Sending SHUTDOWN signal to the NodeManager.
    </description>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>1024</value>
  </property>
 
  <property>
    <description>
每个 nodemanager 上可用的 CPU 核数
Number of CPU cores that can be allocated 
    for containers.</description>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>1</value>
  </property>
 
  <property>
    <description>the valid service name should only contain a-zA-Z0-9_ and can not start with numbers</description>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
 
</configuration>

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-09/106289p2.htm

slaves
指定 slave 机器的 host 名即可

fairscheduler.xml
下面的例子把把集群资源配置成 3 个队列,为每个队列配置内存、CPU 核、运行程序上限个数、权重等信息。
<?xml version=”1.0″?>
<allocations>
 
  <queue name=”infrastructure”>
    <minResources>5 mb, 1 vcores </minResources>
    <maxResources>60 mb, 1 vcores </maxResources>
    <maxRunningApps>10</maxRunningApps>
    <minSharePreemptionTimeout>300</minSharePreemptionTimeout>
    <weight>1.0</weight>
    <aclSubmitApps>root,yarn</aclSubmitApps>
  </queue>
 
   <queue name=”tool”>
      <minResources>5 mb, 1 vcores</minResources>
      <maxResources>10 mb, 1 vcores</maxResources>
   </queue>
 
   <queue name=”sentiment”>
      <minResources>5 mb, 1 vcores</minResources>
      <maxResources>15 mb, 1 vcores</maxResources>
   </queue>
 
</allocations>
 
第三步:将在一台机器上配好的所有配置文件 scp 到其它所有节点机器
 
第四步:启动 HDFS HA + YARN 集群
注意:所有操作均在 Hadoop 部署目录下进行。
 
启动 Hadoop 集群:
Step1 :
在各个 JournalNode 节点上,输入以下命令启动 journalnode 服务:
sbin/hadoop-daemon.sh start journalnode
 
Step2:
在 [nn1] 上,对其进行格式化,并启动:
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode
 
Step3:
在 [nn2] 上,同步 nn1 的元数据信息:
bin/hdfs namenode -bootstrapStandby
 
Step4:
启动[nn2]:
sbin/hadoop-daemon.sh start namenode
 
经过以上四步操作,nn1 和 nn2 均处理 standby 状态
Step5:
将 [nn1] 切换为 Active
bin/hdfs haadmin -transitionToActive nn1
 
Step6:
在 [nn1] 上,启动所有 datanode
sbin/hadoop-daemons.sh start datanode

下面在RM 所在 master 节点启动 YARN:
sbin/start-yarn.sh
 
在运行 MRJS 的 slave1 上执行以下命令启动MR JobHistory Server
sbin/mr-jobhistory-daemon.sh start historyserver

至此,HDFS HA + YARN 都成功启动完毕,在各个节点输入 jps 查看进程

 
 
Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署
 
也可以用 web 查看:
HDFS HA 界面:
master:50070/dfshealth.jsp
slave1:50070/dfshealth.jsp
 
YARN 界面:
master:8088
 

 
第五步:停止集群
在 RM 和 NN 所在节点 master 执行:
先停止 yarn
sbin/stop-yarn.sh
再停止 hdfs
sbin/stop-dfs.sh
 
在运行JobHistoryServer 的 slave1 上执行:
停止 JobHistoryServer
sbin/mr-jobhistory-daemon.sh stop historyserver
 
 
第六步:再次启动
注意,再次启动时,所有的格式化命令都不用执行了!!!

更多 Hadoop 相关信息见Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

部署逻辑架构:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

HDFS HA 部署物理架构

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

注意:

JournalNode 使用资源很少,即使在实际的生产环境中,也是把 JournalNode 和 DataNode 部署在同一台机器上;

生产环境中,建议主备 NameNode 各单独一台机器。

YARN 部署架构:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

个人实验环境部署图:

Apache Hadoop 2.2.0 HDFS HA + YARN 多机部署

Ubuntu12 32bit

apache Hadoop 2.2.0

jdk1.7

===============================================

Ubuntu 13.04 上搭建 Hadoop 环境 http://www.linuxidc.com/Linux/2013-06/86106.htm

Ubuntu 12.10 +Hadoop 1.2.1 版本集群配置 http://www.linuxidc.com/Linux/2013-09/90600.htm

Ubuntu 上搭建 Hadoop 环境(单机模式 + 伪分布模式)http://www.linuxidc.com/Linux/2013-01/77681.htm

Ubuntu 下 Hadoop 环境的配置 http://www.linuxidc.com/Linux/2012-11/74539.htm

单机版搭建 Hadoop 环境图文教程详解 http://www.linuxidc.com/Linux/2012-02/53927.htm

搭建 Hadoop 环境(在 Winodws 环境下用虚拟机虚拟两个 Ubuntu 系统进行搭建)http://www.linuxidc.com/Linux/2011-12/48894.htm

===============================================

准备工作
1. 在 4 台机器都配置 hosts;
2. 配置 NameNode 节点可以免密码登录到其余所有节点,只需要单向免密登录即可,无需双向;
免密码登录仅仅在启动、停止集群时使用。
3. 安装 jdk
4. 创建专门的账号,不要用 root 账号部署、管理 hadoop



部署 hadoop
第一步:把 hadoop 安装包解压到每一个节点(可以解压到一个节点,然后完成后续第 2 步的配置后,再 scp 拷贝到其余节点)的固定目录下(各节点目录统一),比如 /home/yarn/Hadoop/hadoop-2.2.0
第二步:修改配置文件(只需在一个节点上配置,配置好后再用 scp 分发到其余节点)
配置文件路径:etc/hadoop/
hadoop-env.sh
修改 JDK 路径,在文件中搜索以下行,将 JAVA_HOME 设置为 JDK 安装路径即可:
# The java implementation to use.
export JAVA_HOME=/usr/lib/jvm/java-6-sun

core-site.xml
指定 Active NameNode 的 host 名 /ip 和端口号,端口号可以根据自己的需要修改:
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://SY-0217:8020</value>
</property>
</configuration>
注意:以上配置的 SY-0217 是固定 host,只适用于手动切换主备 NameNode 的场景,如果需要通过 ZooKeeper 来自动切换,则需要配置逻辑名称,后面会详述。

mapred-site.xml
 
<configuration>
<!– MR YARN Application properties –>
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
  <description>The runtime framework for executing MapReduce jobs.
  Can be one of local, classic or yarn.
  </description>
</property>
 
<!–
jobhistory properties
jobhistory server,可以通过它查看已经运行完的应用程序的信息。
–>
<property>
  <name>mapreduce.jobhistory.address</name>
  <value>SY-0355:10020</value>
  <description>MapReduce JobHistory Server IPC host:port</description>
</property>
 
<property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>SY-0355:19888</value>
  <description>MapReduce JobHistory Server Web UI host:port</description>
</property>
</configuration>

hdfs-site.xml
非常关键的配置文件!
<configuration>
 
<property>
  <name>dfs.nameservices</name>
  <value>hadoop-test</value>
  <description>
    指定命名空间名称,可随意起名
    Comma-separated list of nameservices.
  </description>
</property>
 
<property>
  <name>dfs.ha.namenodes.hadoop-test</name>
  <value>nn1,nn2</value>
  <description>
    在命名空间下指定 NameNode 逻辑名
    The prefix for a given nameservice, contains a comma-separated
    list of namenodes for a given nameservice (eg EXAMPLENAMESERVICE).
  </description>
</property>
 
<property>
  <name>dfs.namenode.rpc-address.hadoop-test.nn1</name>
  <value>SY-0217:8020</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 rpc 地址
    RPC address for nomenode1 of hadoop-test
  </description>
</property>
 
<property>
  <name>dfs.namenode.rpc-address.hadoop-test.nn2</name>
  <value>SY-0355:8020</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 rpc 地址
    RPC address for nomenode2 of hadoop-test
  </description>
</property>
 
<property>
  <name>dfs.namenode.http-address.hadoop-test.nn1</name>
  <value>SY-0217:50070</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 http 地址
    The address and the base port where the dfs namenode1 web ui will listen on.
  </description>
</property>
 
<property>
  <name>dfs.namenode.http-address.hadoop-test.nn2</name>
  <value>SY-0355:50070</value>
  <description>
    为“命名空间名.NameNode 逻辑名”配置 http 地址
    The address and the base port where the dfs namenode2 web ui will listen on.
  </description>
</property>
 
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:///home/dongxicheng/hadoop/hdfs/name</value>
  <description>
    配置 NameNode 元数据存放的路径;
    如果机器上有多块硬盘的话,推荐配置多个路径,用逗号分隔。
Determines where on the local filesystem the DFS name node
      should store the name table(fsimage).  If this is a comma-delimited list
      of directories then the name table is replicated in all of the
      directories, for redundancy. </description>
</property>
 
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:///home/dongxicheng/hadoop/hdfs/data</value>
  <description>
        配置 DataNode 数据存放的路径;
    如果机器上有多块硬盘的话,推荐配置多个路径,用逗号分隔。
Determines where on the local filesystem an DFS data node
  should store its blocks.  If this is a comma-delimited
  list of directories, then data will be stored in all named
  directories, typically on different devices.
  Directories that do not exist are ignored.
  </description>
</property>
 
<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://SY-0355:8485;SY-0225:8485;SY-0226:8485/hadoop-journal</value>
  <description>
    配置 JournalNode,包含三部分:
(1)qjournal 是协议,无需修改;
(2)然后就是三台部署 JournalNode 的主机 host/ip:端口,三台机器之间用分号分隔;
(3)最后的hadoop-journal 是 journalnode 的命名空间,可以随意取名。
A directory on shared storage between the multiple namenodes
  in an HA cluster. This directory will be written by the active and read
  by the standby in order to keep the namespaces synchronized. This directory
  does not need to be listed in dfs.namenode.edits.dir above. It should be
  left empty in a non-HA cluster.
  </description>
</property>
 
<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/home/dongxicheng/hadoop/hdfs/journal/</value>
  <description>
    journalnode 的本地数据存放目录,指定一个路径就够。
  </description>
</property>
 
<property>
  <name>dfs.ha.automatic-failover.enabled</name>
  <value>false</value>
  <description>
    是否自动切换。由于没有配置 ZooKeeper,所以不能实现自动切换,所以这里配置的是 false。
    Whether automatic failover is enabled. See the HDFS High
    Availability documentation for details on automatic HA
    configuration.
  </description>
</property>
 
</configuration>

yarn-site.xml
<configuration>
 
  <!– Resource Manager Configs –>
  <property>
    <description>
    指定 ResourceManager
    The hostname of the RM.</description>
    <name>yarn.resourcemanager.hostname</name>
    <value>master</value>
  </property>    
 
  <property>
    <description>The address of the applications manager interface in the RM.</description>
    <name>yarn.resourcemanager.address</name>
    <value>${yarn.resourcemanager.hostname}:8032</value>
  </property>
 
  <property>
    <description>The address of the scheduler interface.</description>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>${yarn.resourcemanager.hostname}:8030</value>
  </property>
 
  <property>
    <description>The http address of the RM web application.</description>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>${yarn.resourcemanager.hostname}:8088</value>
  </property>
 
  <property>
    <description>The https adddress of the RM web application.</description>
    <name>yarn.resourcemanager.webapp.https.address</name>
    <value>${yarn.resourcemanager.hostname}:8090</value>
  </property>
 
  <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>${yarn.resourcemanager.hostname}:8031</value>
  </property>
 
  <property>
    <description>The address of the RM admin interface.</description>
    <name>yarn.resourcemanager.admin.address</name>
    <value>${yarn.resourcemanager.hostname}:8033</value>
  </property>
 
  <property>
    <description>
指定 fairscheduler 调度器
The class to use as the resource scheduler.
</description>
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.fair.FairScheduler</value>
  </property>
 
  <property>
    <description>
指定 fairscheduler 调度器配置文件路径
fair-scheduler conf location
</description>
    <name>yarn.scheduler.fair.allocation.file</name>
    <value>${yarn.home.dir}/etc/hadoop/fairscheduler.xml</value>
  </property>
 
  <property>
    <description>
指定 nodemanager 的本地工作目录,推荐配置多个路径,用逗号分隔
List of directories to store localized files in. An 
      application’s localized file directory will be found in:
      ${yarn.nodemanager.local-dirs}/usercache/${user}/appcache/application_${appid}.
      Individual containers’ work directories, called container_${contid}, will
      be subdirectories of this.
   </description>
    <name>yarn.nodemanager.local-dirs</name>
    <value>/home/yarn/Hadoop/yarn/local</value>
  </property>
 
  <property>
    <description>Whether to enable log aggregation</description>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
 
  <property>
    <description>Where to aggregate logs to.</description>
    <name>yarn.nodemanager.remote-app-log-dir</name>
    <value>/home/yarn/Hadoop/yarn/tmp/logs</value>
  </property>
 
  <property>
    <description>
每个 nodemanager 上可以用的内存大小
Amount of physical memory, in MB, that can be allocated for containers.
 注意:我的 NM 虚拟机是 1G 内存,1 核 CPU,当该值配置小于 1024 时,NM 是无法启动的!会报错:
NodeManager from  slavenode2 doesn’t satisfy minimum allocations, Sending SHUTDOWN signal to the NodeManager.
    </description>
    <name>yarn.nodemanager.resource.memory-mb</name>
    <value>1024</value>
  </property>
 
  <property>
    <description>
每个 nodemanager 上可用的 CPU 核数
Number of CPU cores that can be allocated 
    for containers.</description>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>1</value>
  </property>
 
  <property>
    <description>the valid service name should only contain a-zA-Z0-9_ and can not start with numbers</description>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
 
</configuration>

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-09/106289p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计18912字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中