阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

HBase 0.98.1集群安装

242次阅读
没有评论

共计 4915 个字符,预计需要花费 13 分钟才能阅读完成。

本文将基于 HBase 0.98.1 讲解其在 Linux 集群上的安装方法,并对一些重要的设置项进行解释。

1. 安装与配置

1.1. 前置条件

确保已经安装了 Hadoop 并保证 hadoop 运行正常。关于 hbase 与 hadoop 的版本依赖关系,请参考:  https://hbase.apache.org/book/configuration.html#hadoop 关于 java 和 hadoop 的安装和配置请参考:http://www.linuxidc.com/Linux/2014-04/100934.htm 本文不再赘述,只给出 /etc/profile 中关于 JAVA_HOME,HADOOP_HOME 和 HBASE_HOME 的配置参考:

JAVA_HOME=/usr/java/jdk1.7.0_51
HADOOP_HOME=/usr/local/hadoop
HBASE_HOME=/usr/local/hbase
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin
export JAVA_HOME HADOOP_HOME HBASE_HOME PATH

注:为了在输入命令时避免同名的 cmd 文件的干扰,可以使用 rm -f $HBASE_HOME/bin/*.cmd 删除 cmd 文件。

1.2. 将安装包解压到 /usr/local(或者 /opt) 下, 编辑 conf/hbase-env.sh 在开头部分添加:

export JAVA_HOME=/usr/java/jdk1.7.0_51
export HBASE_LOG_DIR=/var/hbase/logs

关于在 hbase-env.sh 中设置 JAVA_HOME 的原因与在 hadoop-env.sh 和 yarn-env.sh 中设置 JAVA_HOME 的原因是一样的,即使你的结点上已经正确设置了 JAVA_HOME, 在 *-env.sh 中设置依然是必须的!

1.3. 配置 ${HBASE_HOME}/conf/hbase-site.xml

<configuration>
    <property>
        <name>hbase.tmp.dir</name>
        <value>/var/hbase</value>
    </property>
    <property >
        <name>hbase.rootdir</name>
        <value>hdfs://YOUR-NAMENODE:9000/hbase</value>
    </property>
    <property >
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>YOUR-ZNODE1,YOUR-ZNODE2,YOUR-ZNODE3</value>
    </property>
</configuration>

对于 hbase.master.info.bindAddress 的配置需要注意,该项默认值是 0.0.0.0,若改为某个结点的主机名或 IP 时,若在另外一个结点上使用 start-hbase.sh 启动 hbase 会失败,原因是使用 start-hbase.sh 启动时,会将当前结点作为 master, 即在当前结点上启动 master 服务,但如果 hbase.master.info.bindAddress 是另外一个结点,那么另外一个主机的地址是肯定无法 bind 到当前主机上的,所以 HMaster 服务就起不来了。

1.4 配置 slave 结点列表

通常情况我们使用 start-hbase.sh 脚本来启动整个集群,查看该脚本可以知道,该脚本会基于配置文件在目标结点上启动 master,zookeeper 和 regionserver, 而 regionserver 的列表是在 ${HBASE_HOME}/conf/regionservers 文件中配置的,一个结点一行。所以我们需要在此文件中添加所有的 regionserver 机器名或 IP

1.5. 将上述配置的 hbase 安装程序重新打包复制到所有结点的对应位置再展开,同时记得修改每个结点的 /etc/profile

2. 启动

2.1 关于账户设置

关于这一点,在账户设置上与 hadoop 是一致的,请参考 http://www.linuxidc.com/Linux/2014-04/100934.htm 一文的 3.1 节!为了从简,本文直接使用 root 账户启动。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-04/100935p2.htm

2.2 启动 HBase 集群

执行:

start-hbase.sh

该命令可在任意结点上执行,不过需要注意的是:在哪个结点上执行该命令,该点将自动成为 master(与 zookeeper 的配置不同,hbase 的配置文件中不提供指定 master 的选项),如果需要多个 back-up master, 可在另外的结点上通过 hbase-daemon.sh start master 单独启动 master!

以下是单独启动某项服务的命令:

启动 zookeeper

hbase-daemon.sh start zookeeper

启动 master

hbase-daemon.sh start master

启动 regionserver

hbase-daemon.sh start regionserver

所有服务启动后,访问:

http://YOUR-MASTER:60010

检查各结点的状态,如都能访问表示 HBase 没有问题,如无法访问或缺少节点,可分析 log 的中的信息找出问题原因。

HBase 的详细介绍 :请点这里
HBase 的下载地址 :请点这里

相关阅读

Hadoop+HBase 搭建云存储总结 PDF http://www.linuxidc.com/Linux/2013-05/83844.htm

HBase 结点之间时间不一致造成 regionserver 启动失败 http://www.linuxidc.com/Linux/2013-06/86655.htm

Hadoop+ZooKeeper+HBase 集群配置 http://www.linuxidc.com/Linux/2013-06/86347.htm

Hadoop 集群安装 &HBase 实验环境搭建 http://www.linuxidc.com/Linux/2013-04/83560.htm

基于 Hadoop 集群的 HBase 集群的配置 http://www.linuxidc.com/Linux/2013-03/80815.htm‘

Hadoop 安装部署笔记之 -HBase 完全分布模式安装 http://www.linuxidc.com/Linux/2012-12/76947.htm

单机版搭建 HBase 环境图文教程详解 http://www.linuxidc.com/Linux/2012-10/72959.htm

本文将基于 HBase 0.98.1 讲解其在 Linux 集群上的安装方法,并对一些重要的设置项进行解释。

1. 安装与配置

1.1. 前置条件

确保已经安装了 Hadoop 并保证 hadoop 运行正常。关于 hbase 与 hadoop 的版本依赖关系,请参考:  https://hbase.apache.org/book/configuration.html#hadoop 关于 java 和 hadoop 的安装和配置请参考:http://www.linuxidc.com/Linux/2014-04/100934.htm 本文不再赘述,只给出 /etc/profile 中关于 JAVA_HOME,HADOOP_HOME 和 HBASE_HOME 的配置参考:

JAVA_HOME=/usr/java/jdk1.7.0_51
HADOOP_HOME=/usr/local/hadoop
HBASE_HOME=/usr/local/hbase
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin
export JAVA_HOME HADOOP_HOME HBASE_HOME PATH

注:为了在输入命令时避免同名的 cmd 文件的干扰,可以使用 rm -f $HBASE_HOME/bin/*.cmd 删除 cmd 文件。

1.2. 将安装包解压到 /usr/local(或者 /opt) 下, 编辑 conf/hbase-env.sh 在开头部分添加:

export JAVA_HOME=/usr/java/jdk1.7.0_51
export HBASE_LOG_DIR=/var/hbase/logs

关于在 hbase-env.sh 中设置 JAVA_HOME 的原因与在 hadoop-env.sh 和 yarn-env.sh 中设置 JAVA_HOME 的原因是一样的,即使你的结点上已经正确设置了 JAVA_HOME, 在 *-env.sh 中设置依然是必须的!

1.3. 配置 ${HBASE_HOME}/conf/hbase-site.xml

<configuration>
    <property>
        <name>hbase.tmp.dir</name>
        <value>/var/hbase</value>
    </property>
    <property >
        <name>hbase.rootdir</name>
        <value>hdfs://YOUR-NAMENODE:9000/hbase</value>
    </property>
    <property >
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>YOUR-ZNODE1,YOUR-ZNODE2,YOUR-ZNODE3</value>
    </property>
</configuration>

对于 hbase.master.info.bindAddress 的配置需要注意,该项默认值是 0.0.0.0,若改为某个结点的主机名或 IP 时,若在另外一个结点上使用 start-hbase.sh 启动 hbase 会失败,原因是使用 start-hbase.sh 启动时,会将当前结点作为 master, 即在当前结点上启动 master 服务,但如果 hbase.master.info.bindAddress 是另外一个结点,那么另外一个主机的地址是肯定无法 bind 到当前主机上的,所以 HMaster 服务就起不来了。

1.4 配置 slave 结点列表

通常情况我们使用 start-hbase.sh 脚本来启动整个集群,查看该脚本可以知道,该脚本会基于配置文件在目标结点上启动 master,zookeeper 和 regionserver, 而 regionserver 的列表是在 ${HBASE_HOME}/conf/regionservers 文件中配置的,一个结点一行。所以我们需要在此文件中添加所有的 regionserver 机器名或 IP

1.5. 将上述配置的 hbase 安装程序重新打包复制到所有结点的对应位置再展开,同时记得修改每个结点的 /etc/profile

2. 启动

2.1 关于账户设置

关于这一点,在账户设置上与 hadoop 是一致的,请参考 http://www.linuxidc.com/Linux/2014-04/100934.htm 一文的 3.1 节!为了从简,本文直接使用 root 账户启动。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2014-04/100935p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计4915字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中