共计 2742 个字符,预计需要花费 7 分钟才能阅读完成。
学习 Ceph 时,看到 crush 规则的时候,crush 策略最小为 osd,但是这个 osd 定义的是真实的 osd 还是指单块磁盘?为了验证一下,自己用测试机模拟了一下单台机器使用一块磁盘搭建 Ceph。
配置 ceph 源,这里使用的阿里云的源
# yum install –nogpgcheck -y epel-release
# rpm –import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7
# vim /etc/yum.repos.d/ceph.repo
[Ceph]
name=Ceph packages for $basearch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/$basearch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
priority=1
[Ceph-noarch]
name=Ceph noarch packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
priority=1
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS
enabled=1
gpgcheck=1
type=rpm-md
gpgkey=https://mirrors.aliyun.com/ceph/keys/release.asc
priority=1
安装 ceph
# yum update -y
# yum install ceph-deploy -y
# yum install ntp ntpdate ntp-doc openssh-server yum-plugin-priorities -y
# vim /etc/hosts
172.16.10.167 admin-node #主机的 IP 和主机名,不写会无法连接,或者可以修改 ceph 配置文件 mon_initial_members 改成主机名
# mkdir my-cluster
# cd my-cluster
# ceph-deploy new admin-node
# vim ceph.conf
osd pool default size = 3 #创建 3 个副本
public_network = 172.16.10.0/24 #公用网络
cluster_network = 172.16.10.0/24 #集群网络
# ceph-deploy install admin-node
# fdisk /dev/sdb #划分三个相同大小的分区
# ceph-deploy mon create-initial
# ceph-deploy admin admin-node
# chmod +r /etc/ceph/ceph.client.admin.keyring
# ceph-disk prepare –cluster ceph –cluster-uuid f453a207-a05c-475b-971d-91ff6c1f6f48 –fs-type xfs /dev/sdb1
# ceph-disk prepare –cluster ceph –cluster-uuid f453a207-a05c-475b-971d-91ff6c1f6f48 –fs-type xfs /dev/sdb2
# ceph-disk prepare –cluster ceph –cluster-uuid f453a207-a05c-475b-971d-91ff6c1f6f48 –fs-type xfs /dev/sdb3
上面的 uuid 使用 ceph - s 可以查看,就是第一行 cluster 后面的那串字符,配置文件中可以修改
# ceph-disk activate /dev/sdb1
# ceph-disk activate /dev/sdb2
# ceph-disk activate /dev/sdb3
# ceph osd getcrushmap -o a.map
# crushtool -d a.map -o a
# vim a
rule replicated_ruleset {
ruleset 0
type replicated
min_size 1
max_size 10
step take default
step chooseleaf firstn 0 type osd #默认为 host,修改为 osd
step emit
# crushtool -c a -o b.map
# ceph osd setcrushmap -i b.map
# ceph osd tree
# ceph -s
搭建完成
通过测试结果可以看出来,使用一块磁盘就可以搭建 ceph 集群,crush 策略中的 osd 指的是真实的 osd。
更多 Ceph 相关教程见以下内容:
在 CentOS 7.1 上安装分布式存储系统 Ceph http://www.linuxidc.com/Linux/2015-08/120990.htm
Ceph 环境配置文档 PDF http://www.linuxidc.com/Linux/2013-05/85212.htm
CentOS7 下部署 Ceph 集群(版本 10.2.2)http://www.linuxidc.com/Linux/2017-02/140728.htm
Ceph 的安装过程 http://www.linuxidc.com/Linux/2013-05/85210.htm
如何升级 Ceph 版本及注意事项 http://www.linuxidc.com/Linux/2017-02/140631.htm
HOWTO Install Ceph On FC12, FC 上安装 Ceph 分布式文件系统 http://www.linuxidc.com/Linux/2013-05/85209.htm
实验环境 Ceph 9.2.1 部署笔记 http://www.linuxidc.com/Linux/2016-11/137094.htm
Ubuntu 16.04 快速安装 Ceph 集群 http://www.linuxidc.com/Linux/2016-09/135261.htm
Ceph 的详细介绍:请点这里
Ceph 的下载地址:请点这里
本文永久更新链接地址:http://www.linuxidc.com/Linux/2017-06/144636.htm