阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

CentOS 7下搭建高可用集群

261次阅读
没有评论

共计 7178 个字符,预计需要花费 18 分钟才能阅读完成。

本文以两台机器实现双集热备高可用集群,主机名 node1IP192.168.122.168 ,主机名node2IP192.168.122.169

CentOS 7 下搭建高可用集群

Hadoop 集群搭建 http://www.linuxidc.com/Linux/2014-10/107471.htm

Zookeeper+Kafka 集群安装 http://www.linuxidc.com/Linux/2014-09/107386.htm

Keepalived 高可用集群搭建 http://www.linuxidc.com/Linux/2014-09/106965.htm

CentOS-6.4-minimal 版中 Apache-2.2.29 与 Tomcat-6.0.41 实现集群 http://www.linuxidc.com/Linux/2014-09/107336.htm

Linux 下集群的搭建 http://www.linuxidc.com/Linux/2014-09/106963.htm

Hadoop 集群部署 Hbase 并开启 kerberos http://www.linuxidc.com/Linux/2014-09/106213.htm

一、安装集群软件

必须软件pcspacemakercorosyncfence-agents-all,如果需要配置相关服务,也要安装对应的软件

二、配置防火墙

1、禁止防火墙和selinux

  1. # systemctl disable firewalld
  2. # systemctl stop firewalld

修改 /etc/sysconfig/selinux 确保 SELINUX=disabled,然后执行setenforce 0 或者 reboot 服务器以生效

2、设置防火墙规则

  1. # firewall-cmd –permanent –add-service=high-availability
  2. # firewall-cmd –add-service=high-availability

 三、各节点之间主机名互相解析

分别修改 2 台主机名分别为 node1node2,在 centos 7 中直接修改 /etc/hostname 加入本机主机名和主机表,然后重启网络服务即可。

  1. #vi /etc/hostname
  2. node1
  3.  
  4. #systemctl restart network.service
  5. #hostname
  6. node1

 配置 2 台主机的主机表,在 /etc/hosts 中加入

  1. 192.168.122.168 node1
  2. 192.168.122.169 node2

 四、各节点之间时间同步

node1node2分别进行时间同步,可以使用ntp 实现。

  1. [root@node1 ~]# ntpdate 172.16.0.1//172.16.0.1 为时间服务器

五、各节点之间配置 ssh 的无密码密钥访问。

下面的操作需要在各个节点上操作。

  1. # ssh-keygen -t rsa -P‘’#这个生成一个密码为空的公钥和一个密钥,把公钥复制到对方节点上即可
  2. # ssh-copy-id -i /root/.ssh/id_rsa.pub root@node2 #对方主机名用登录用户名

两台主机都要互相可以通信,所以两台主机都得互相生成密钥和复制公钥,相互的节点上的 hosts 文件是都要解析对方的主机名,192.168.122.168 node1 192.168.122.169 node2 

  1. # ssh node2‘date’;date #测试一下是否已经互信 

六、通过 pacemaker 来管理高可用集群

1、创建集群用户

为了有利于各节点之间通信和配置集群,在每个节点上创建一个 hacluster 的用户,各个节点上的密码必须是同一个。

  1. # passwd hacluster
  2.  
  3. Changing password for user hacluster.
  4. New password:
  5. Retypenew password:
  6. passwd: all authentication tokens updated successfully.

2、设置 pcsd 开机自启动

  1. # systemctl start pcsd.service
  2. # systemctl enable pcsd.service

3、集群各节点之间进行认证

  1. # pcs cluster auth node1 node2Username: hacluster Password: node1: Authorized node2: Authorized

4、创建并启动集群

  1. [root@z1 ~]# pcs cluster setup start name my_cluster node1 node2
  2.  
  3. node1:Succeeded
  4. node1:StartingCluster
  5. node2:Succeeded
  6. node2:StartingCluster

5、设置集群自启动

  1. # pcs cluster enable –all

6、查看集群状态信息

  1. [root@z1 ~]# pcs cluster status

7、设置 fence 设备

这个可以参考<Red Hat Enterprise Linux 7 High Availability Add-On Reference>

corosync默认启用了 stonith,而当前集群并没有相应的stonith 设备,因此此默 认配置目前尚不可用,这可以通过如下命令验证:

  1. #crm_verify -L -V

可以通过如下面命令禁用stonith

  1. #pcs property set stonith-enabled=false(默认是 true)

8、配置存储

高可用集群既可以使用本地磁盘来构建纯软件的镜像型集群系统,也可以使用专门的共享磁盘装置来构建大规模的共享磁盘型集群系统,充分满足客户的不同需求。

共享磁盘主要有 iscsiDBRD。本文并没有使用共享磁盘。

9、配置浮点IP

不管集群服务在哪运行 , 我们要一个固定的地址来提供服务。在这里我选择 192.168.122.101 作为浮动 IP, 给它取一个好记的名字 ClusterIP 并且告诉集群 每 30 秒检查它一次。

  1. # pcs resource create VIP ocf:heartbeat:IPaddr2 ip=192.168.122.170 cidr_netmask=24 op monitor interval=30s
  2. # pcs update VIP op monitor interval=15s

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-10/107698p2.htm

10、配置 apache 服务

node1node2上安 httpd ,确认 httpd 开机被禁用

  1. # systemctl status httpd.service;

配置 httpd 监控页面(貌似不配置也可以通过 systemd 监控),分别在 node1node2上执行

  1. # cat > /etc/httpd/conf.d/status.conf << EOF
  2. SetHandler serverstatus
  3. Order deny,allow
  4. Denyfrom all
  5. Allowfrom localhost
  6. EOF

首先我们为 Apache 创建一个主页。在 CentOS 上面默认的 Apache docroot/var/www/html,所以我们在这个目录下面建立一个主页。

node1节点修改如下:

  1. [root@node1 ~]# cat <<-END>/var/www/html/index.html
  2. <html>
  3. <body>Hello node1</body>
  4. </html>
  5.  
  6. END

node2节点修改如下:

  1. [root@node2 ~]# cat <<-END>/var/www/html/index.html
  2. <html>
  3. <body>Hello node2</body>
  4. </html>
  5.  
  6. END

下面语句是将 httpd 作为资源添加到集群中:

  1. #pcs resource create WEB apache configfile=”/etc/httpd/conf/httpd.conf” statusurl=”http://127.0.0.1/server-status”

11、创建group

VIPWEB resource捆绑到这个 group 中,使之作为一个整体在集群中切换。(此配置为可选)

  1. # pcs resource group add MyGroup VIP
  2. # pcs resource group add MyGroup WEB

12、配置服务启动顺序

以避免出现资源冲突,语法:(pcs resource group add的时候也可以根据加的顺序依次启动,此配置为可选)

  1. # pcs constraint order [action] then [action]
  2. # pcs constraint order start VIP then start WEB

13、指定优先的 Location (此配置为可选)

Pacemaker 并不要求你机器的硬件配置是相同的 , 可能某些机器比另外的机器配置要好。这种状况下我们会希望设置 : 当某个节点可用时 , 资源就要跑在上面之类的规则。为了达到这个效果我们创建 location 约束。同样的 , 我们给他取一个描述性的名字 (prefer-node1), 指明我们想在上面跑 WEB 这个服务 , 多想在上面跑 ( 我们现在指定分值为 50, 但是在双节点的集群状态下 , 任何大于 0 的值都可以达到想要的效果 ), 以及目标节点的名字:

  1. # pcs constraint location WEB prefers node1=50
  2. # pcs constraint location WEB prefers node2=45

这里指定分值越大,代表越想在对应的节点上运行。

14、资源粘性(此配置为可选)

一些环境中会要求尽量避免资源在节点之间迁移。迁移资源通常意味着一段时间内无法提供服务,某些复杂的服务,比如 Oracle 数据库,这个时间可能会很长。

为了达到这个效果,Pacemaker 有一个叫做“资源粘性值”的概念,它能够控制一个服务 ( 资源 ) 有多想呆在它正在运行的节点上。

Pacemaker为了达到最优分布各个资源的目的,默认设置这个值为 0。我们可以为每个资源定义不同的粘性值,但一般来说,更改默认粘性值就够了。 资源粘性表示资源是否倾向于留在当前节点,如果为正整数,表示倾向,负数则会离开,-inf表示负无穷,inf表示正无穷。

  1. # pcs resource defaults resource-stickiness=100

 

常用命令汇总:

查看集群状态#pcs status

查看集群当前配置:#pcs config

开机后集群自启动:#pcs cluster enable –all

启动集群:#pcs cluster start –all

查看集群资源状态:#pcs resource show

验证集群配置情况:#crm_verify -L -V

测试资源配置:#pcs resource debug-start resource

设置节点为备用状态:#pcs cluster standby node1

更多 CentOS 相关信息见CentOS 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=14

本文永久更新链接地址:http://www.linuxidc.com/Linux/2014-10/107698.htm

本文以两台机器实现双集热备高可用集群,主机名 node1IP192.168.122.168 ,主机名node2IP192.168.122.169

CentOS 7 下搭建高可用集群

Hadoop 集群搭建 http://www.linuxidc.com/Linux/2014-10/107471.htm

Zookeeper+Kafka 集群安装 http://www.linuxidc.com/Linux/2014-09/107386.htm

Keepalived 高可用集群搭建 http://www.linuxidc.com/Linux/2014-09/106965.htm

CentOS-6.4-minimal 版中 Apache-2.2.29 与 Tomcat-6.0.41 实现集群 http://www.linuxidc.com/Linux/2014-09/107336.htm

Linux 下集群的搭建 http://www.linuxidc.com/Linux/2014-09/106963.htm

Hadoop 集群部署 Hbase 并开启 kerberos http://www.linuxidc.com/Linux/2014-09/106213.htm

一、安装集群软件

必须软件pcspacemakercorosyncfence-agents-all,如果需要配置相关服务,也要安装对应的软件

二、配置防火墙

1、禁止防火墙和selinux

  1. # systemctl disable firewalld
  2. # systemctl stop firewalld

修改 /etc/sysconfig/selinux 确保 SELINUX=disabled,然后执行setenforce 0 或者 reboot 服务器以生效

2、设置防火墙规则

  1. # firewall-cmd –permanent –add-service=high-availability
  2. # firewall-cmd –add-service=high-availability

 三、各节点之间主机名互相解析

分别修改 2 台主机名分别为 node1node2,在 centos 7 中直接修改 /etc/hostname 加入本机主机名和主机表,然后重启网络服务即可。

  1. #vi /etc/hostname
  2. node1
  3.  
  4. #systemctl restart network.service
  5. #hostname
  6. node1

 配置 2 台主机的主机表,在 /etc/hosts 中加入

  1. 192.168.122.168 node1
  2. 192.168.122.169 node2

 四、各节点之间时间同步

node1node2分别进行时间同步,可以使用ntp 实现。

  1. [root@node1 ~]# ntpdate 172.16.0.1//172.16.0.1 为时间服务器

五、各节点之间配置 ssh 的无密码密钥访问。

下面的操作需要在各个节点上操作。

  1. # ssh-keygen -t rsa -P‘’#这个生成一个密码为空的公钥和一个密钥,把公钥复制到对方节点上即可
  2. # ssh-copy-id -i /root/.ssh/id_rsa.pub root@node2 #对方主机名用登录用户名

两台主机都要互相可以通信,所以两台主机都得互相生成密钥和复制公钥,相互的节点上的 hosts 文件是都要解析对方的主机名,192.168.122.168 node1 192.168.122.169 node2 

  1. # ssh node2‘date’;date #测试一下是否已经互信 

六、通过 pacemaker 来管理高可用集群

1、创建集群用户

为了有利于各节点之间通信和配置集群,在每个节点上创建一个 hacluster 的用户,各个节点上的密码必须是同一个。

  1. # passwd hacluster
  2.  
  3. Changing password for user hacluster.
  4. New password:
  5. Retypenew password:
  6. passwd: all authentication tokens updated successfully.

2、设置 pcsd 开机自启动

  1. # systemctl start pcsd.service
  2. # systemctl enable pcsd.service

3、集群各节点之间进行认证

  1. # pcs cluster auth node1 node2Username: hacluster Password: node1: Authorized node2: Authorized

4、创建并启动集群

  1. [root@z1 ~]# pcs cluster setup start name my_cluster node1 node2
  2.  
  3. node1:Succeeded
  4. node1:StartingCluster
  5. node2:Succeeded
  6. node2:StartingCluster

5、设置集群自启动

  1. # pcs cluster enable –all

6、查看集群状态信息

  1. [root@z1 ~]# pcs cluster status

7、设置 fence 设备

这个可以参考<Red Hat Enterprise Linux 7 High Availability Add-On Reference>

corosync默认启用了 stonith,而当前集群并没有相应的stonith 设备,因此此默 认配置目前尚不可用,这可以通过如下命令验证:

  1. #crm_verify -L -V

可以通过如下面命令禁用stonith

  1. #pcs property set stonith-enabled=false(默认是 true)

8、配置存储

高可用集群既可以使用本地磁盘来构建纯软件的镜像型集群系统,也可以使用专门的共享磁盘装置来构建大规模的共享磁盘型集群系统,充分满足客户的不同需求。

共享磁盘主要有 iscsiDBRD。本文并没有使用共享磁盘。

9、配置浮点IP

不管集群服务在哪运行 , 我们要一个固定的地址来提供服务。在这里我选择 192.168.122.101 作为浮动 IP, 给它取一个好记的名字 ClusterIP 并且告诉集群 每 30 秒检查它一次。

  1. # pcs resource create VIP ocf:heartbeat:IPaddr2 ip=192.168.122.170 cidr_netmask=24 op monitor interval=30s
  2. # pcs update VIP op monitor interval=15s

更多详情见请继续阅读下一页的精彩内容:http://www.linuxidc.com/Linux/2014-10/107698p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计7178字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中