共计 7296 个字符,预计需要花费 19 分钟才能阅读完成。
最近一直在忙着搞 Ceph 存储的优化和测试,看了各种资料,但是好像没有一篇文章把其中的方法论交代清楚,所以呢想在这里进行一下总结,很多内容并不是我原创,只是做一个总结。如果其中有任何的问题,欢迎各位喷我,以便我提高。
优化方法论
做任何事情还是要有个方法论的,“授人以鱼不如授人以渔”的道理吧,方法通了,所有的问题就有了解决的途径。通过对公开资料的分析进行总结,对分布式存储系统的优化离不开以下几点:
1. 硬件层面
- 硬件规划
- SSD 选择
- BIOS 设置
2. 软件层面
- Linux OS
- Ceph Configurations
- PG Number 调整
- CRUSH Map
- 其他因素
硬件优化
1. 硬件规划
- Processor
ceph-osd 进程在运行过程中会消耗 CPU 资源,所以一般会为每一个 ceph-osd 进程绑定一个 CPU 核上。当然如果你使用 EC 方式,可能需要更多的 CPU 资源。
ceph-mon 进程并不十分消耗 CPU 资源,所以不必为 ceph-mon 进程预留过多的 CPU 资源。
ceph-msd 也是非常消耗 CPU 资源的,所以需要提供更多的 CPU 资源。
- 内存
ceph-mon 和 ceph-mds 需要 2G 内存,每个 ceph-osd 进程需要 1G 内存,当然 2G 更好。
- 网络规划
万兆网络现在基本上是跑 Ceph 必备的,网络规划上,也尽量考虑分离 cilent 和 cluster 网络。
2. SSD 选择
硬件的选择也直接决定了 Ceph 集群的性能,从成本考虑,一般选择 SATA SSD 作为 Journal,Intel® SSD DC S3500 Series 基本是目前看到的方案中的首选。400G 的规格 4K 随机写可以达到 11000 IOPS。如果在预算足够的情况下,推荐使用 PCIE SSD,性能会得到进一步提升,但是由于 Journal 在向数据盘写入数据时 Block 后续请求,所以 Journal 的加入并未呈现出想象中的性能提升,但是的确会对 Latency 有很大的改善。
如何确定你的 SSD 是否适合作为 SSD Journal,可以参考 SÉBASTIEN HAN 的 Ceph: How to Test if Your SSD Is Suitable as a Journal Device?,这里面他也列出了常见的 SSD 的测试结果,从结果来看 SATA SSD 中,Intel S3500 性能表现最好。
3. BIOS 设置
- Hyper-Threading(HT)
基本做云平台的,VT 和 HT 打开都是必须的,超线程技术 (HT) 就是利用特殊的硬件指令,把两个逻辑内核模拟成两个物理芯片,让单个处理器都能使用线程级并行计算,进而兼容多线程操作系统和软件,减少了 CPU 的闲置时间,提高的 CPU 的运行效率。
- 关闭节能
关闭节能后,对性能还是有所提升的,所以坚决调整成性能型(Performance)。当然也可以在操作系统级别进行调整,详细的调整过程请参考链接,但是不知道是不是由于 BIOS 已经调整的缘故,所以在 CentOS 6.6 上并没有发现相关的设置。
for CPUFREQ in /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor; do [-f $CPUFREQ ] || continue; echo -n performance > $CPUFREQ; done
- NUMA
简单来说,NUMA 思路就是将内存和 CPU 分割为多个区域,每个区域叫做 NODE, 然后将 NODE 高速互联。node 内 cpu 与内存访问速度快于访问其他 node 的内存,NUMA 可能会在某些情况下影响 ceph-osd。解决的方案,一种是通过 BIOS 关闭 NUMA,另外一种就是通过 cgroup 将 ceph-osd 进程与某一个 CPU Core 以及同一 NODE 下的内存进行绑定。但是第二种看起来更麻烦,所以一般部署的时候可以在系统层面关闭 NUMA。CentOS 系统下,通过修改 /etc/grub.conf 文件,添加 numa=off 来关闭 NUMA。
kernel /vmlinuz-2.6.32-504.12.2.el6.x86_64 ro root=UUID=870d47f8-0357-4a32-909f-74173a9f0633 rd_NO_LUKS rd_NO_LVM LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto KEYBOARDTYPE=pc KEYTABLE=us rd_NO_DM biosdevname=0 numa=off
软件优化
1. Linux OS
- Kernel pid max
echo 4194303 > /proc/sys/kernel/pid_max
- Jumbo frames, 交换机端需要支持该功能,系统网卡设置才有效果
ifconfig eth0 mtu 9000
永久设置
echo "MTU=9000" | tee -a /etc/sysconfig/network-script/ifcfg-eth0
/etc/init.d/networking restart
- read_ahead, 通过数据预读并且记载到随机访问内存方式提高磁盘读操作,查看默认值
cat /sys/block/sda/queue/read_ahead_kb
根据一些 Ceph 的公开分享,8192 是比较理想的值
echo "8192" > /sys/block/sda/queue/read_ahead_kb
- swappiness, 主要控制系统对 swap 的使用,这个参数的调整最先见于 UnitedStack 公开的文档中,猜测调整的原因主要是使用 swap 会影响系统的性能。
echo "vm.swappiness = 0" | tee -a /etc/sysctl.conf
- I/O Scheduler,关于 I /O Scheculder 的调整网上已经有很多资料,这里不再赘述,简单说 SSD 要用 noop,SATA/SAS 使用 deadline。
echo "deadline" > /sys/block/sd[x]/queue/scheduler
echo "noop" > /sys/block/sd[x]/queue/scheduler
- cgroup
这方面的文章好像比较少,昨天在和 Ceph 社区交流过程中,Jan Schermer 说准备把生产环境中的一些脚本贡献出来,但是暂时还没有,他同时也列举了一些使用 cgroup 进行隔离的原因。
- 不在 process 和 thread 在不同的 core 上移动(更好的缓存利用)
- 减少 NUMA 的影响
- 网络和存储控制器影响 – 较小
- 通过限制 cpuset 来限制 Linux 调度域(不确定是不是重要但是是最佳实践)
- 如果开启了 HT,可能会造成 OSD 在 thread1 上,KVM 在 thread2 上,并且是同一个 core。Core 的延迟和性能取决于其他一个线程做什么。
这一点具体实现待补充!!!
2. Ceph Configurations
[global]
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
public network | 客户端访问网络 | 192.168.100.0/24 | |
cluster network | 集群网络 | 192.168.1.0/24 | |
max open files | 如果设置了该选项,Ceph 会设置系统的 max open fds | 0 | 131072 |
- 查看系统最大文件打开数可以使用命令
cat /proc/sys/fs/file-max
[osd] – filestore
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
filestore xattr use omap | 为 XATTRS 使用 object map,EXT4 文件系统时使用,XFS 或者 btrfs 也可以使用 | false | true |
filestore max sync interval | 从日志到数据盘最大同步间隔(seconds) | 5 | 15 |
filestore min sync interval | 从日志到数据盘最小同步间隔(seconds) | 0.1 | 10 |
filestore queue max ops | 数据盘最大接受的操作数 | 500 | 25000 |
filestore queue max bytes | 数据盘一次操作最大字节数(bytes) | 100 << 20 | 10485760 |
filestore queue committing max ops | 数据盘能够 commit 的操作数 | 500 | 5000 |
filestore queue committing max bytes | 数据盘能够 commit 的最大字节数(bytes) | 100 << 20 | 10485760000 |
filestore op threads | 并发文件系统操作数 | 2 | 32 |
- 调整 omap 的原因主要是 EXT4 文件系统默认仅有 4K
- filestore queue 相关的参数对于性能影响很小,参数调整不会对性能优化有本质上提升
[osd] – journal
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
osd journal size | OSD 日志大小(MB) | 5120 | 20000 |
journal max write bytes | journal 一次性写入的最大字节数(bytes) | 10 << 20 | 1073714824 |
journal max write entries | journal 一次性写入的最大记录数 | 100 | 10000 |
journal queue max ops | journal 一次性最大在队列中的操作数 | 500 | 50000 |
journal queue max bytes | journal 一次性最大在队列中的字节数(bytes) | 10 << 20 | 10485760000 |
- Ceph OSD Daemon stops writes and synchronizes the journal with the filesystem, allowing Ceph OSD Daemons to trim operations from the journal and reuse the space.
- 上面这段话的意思就是,Ceph OSD 进程在往数据盘上刷数据的过程中,是停止写操作的。
[osd] – osd config tuning
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
osd max write size | OSD 一次可写入的最大值(MB) | 90 | 512 |
osd client message size cap | 客户端允许在内存中的最大数据(bytes) | 524288000 | 2147483648 |
osd deep scrub stride | 在 Deep Scrub 时候允许读取的字节数(bytes) | 524288 | 131072 |
osd op threads | OSD 进程操作的线程数 | 2 | 8 |
osd disk threads | OSD 密集型操作例如恢复和 Scrubbing 时的线程 | 1 | 4 |
osd map cache size | 保留 OSD Map 的缓存(MB) | 500 | 1024 |
osd map cache bl size | OSD 进程在内存中的 OSD Map 缓存(MB) | 50 | 128 |
osd mount options xfs | Ceph OSD xfs Mount 选项 | rw,noatime,inode64 | rw,noexec,nodev,noatime,nodiratime,nobarrier |
- 增加 osd op threads 和 disk threads 会带来额外的 CPU 开销
[osd] – recovery tuning
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
osd recovery op priority | 恢复操作优先级,取值 1 -63,值越高占用资源越高 | 10 | 4 |
osd recovery max active | 同一时间内活跃的恢复请求数 | 15 | 10 |
osd max backfills | 一个 OSD 允许的最大 backfills 数 | 10 | 4 |
[osd] – client tuning
参数名 | 描述 | 默认值 | 建议值 |
---|---|---|---|
rbd cache | RBD 缓存 | true | true |
rbd cache size | RBD 缓存大小(bytes) | 33554432 | 268435456 |
rbd cache max dirty | 缓存为 write-back 时允许的最大 dirty 字节数(bytes),如果为 0,使用 write-through | 25165824 | 134217728 |
rbd cache max dirty age | 在被刷新到存储盘前 dirty 数据存在缓存的时间(seconds) | 1 | 5 |
关闭 Debug
3. PG Number
PG 和 PGP 数量一定要根据 OSD 的数量进行调整,计算公式如下,但是最后算出的结果一定要接近或者等于一个 2 的指数。
Total PGs = (Total_number_of_OSD * 100) / max_replication_count
例如 15 个 OSD,副本数为 3 的情况下,根据公式计算的结果应该为 500,最接近 512,所以需要设定该 pool(volumes)的 pg_num 和 pgp_num 都为 512.
ceph osd pool set volumes pg_num 512
ceph osd pool set volumes pgp_num 512
4. CRUSH Map
CRUSH 是一个非常灵活的方式,CRUSH MAP 的调整取决于部署的具体环境,这个可能需要根据具体情况进行分析,这里面就不再赘述了。
5. 其他因素的影响
在今年的 (2015 年) 的 Ceph Day 上,海云捷迅在调优过程中分享过一个由于在集群中存在一个性能不好的磁盘,导致整个集群性能下降的 case。通过 osd perf 可以提供磁盘 latency 的状况,同时在运维过程中也可以作为监控的一个重要指标,很明显在下面的例子中,OSD 8 的磁盘延时较长,所以需要考虑将该 OSD 剔除出集群:
ceph osd perf
osd fs_commit_latency(ms) fs_apply_latency(ms)
0 14 17
1 14 16
2 10 11
3 4 5
4 13 15
5 17 20
6 15 18
7 14 16
8 299 329
ceph.conf
[global]
fsid = 059f27e8-a23f-4587-9033-3e3679d03b31
mon_host = 10.10.20.102, 10.10.20.101, 10.10.20.100
auth cluster required = cephx
auth service required = cephx
auth client required = cephx
osd pool default size = 3
osd pool default min size = 1
public network = 10.10.20.0/24
cluster network = 10.10.20.0/24
max open files = 131072
[mon]
mon data = /var/lib/ceph/mon/ceph-$id
[osd]
osd data = /var/lib/ceph/osd/ceph-$id
osd journal size = 20000
osd mkfs type = xfs
osd mkfs options xfs = -f
filestore xattr use omap = true
filestore min sync interval = 10
filestore max sync interval = 15
filestore queue max ops = 25000
filestore queue max bytes = 10485760
filestore queue committing max ops = 5000
filestore queue committing max bytes = 10485760000
journal max write bytes = 1073714824
journal max write entries = 10000
journal queue max ops = 50000
journal queue max bytes = 10485760000
osd max write size = 512
osd client message size cap = 2147483648
osd deep scrub stride = 131072
osd op threads = 8
osd disk threads = 4
osd map cache size = 1024
osd map cache bl size = 128
osd mount options xfs = "rw,noexec,nodev,noatime,nodiratime,nobarrier"
osd recovery op priority = 4
osd recovery max active = 10
osd max backfills = 4
[client]
rbd cache = true
rbd cache size = 268435456
rbd cache max dirty = 134217728
rbd cache max dirty age = 5
总结
优化是一个长期迭代的过程,所有的方法都是别人的,只有在实践过程中才能发现自己的,本篇文章仅仅是一个开始,欢迎各位积极补充,共同完成一篇具有指导性的文章。
在 CentOS 7.1 上安装分布式存储系统 Ceph http://www.linuxidc.com/Linux/2015-08/120990.htm
Ceph 环境配置文档 PDF http://www.linuxidc.com/Linux/2013-05/85212.htm
CentOS 6.3 上部署 Ceph http://www.linuxidc.com/Linux/2013-05/85213.htm
Ceph 的安装过程 http://www.linuxidc.com/Linux/2013-05/85210.htm
HOWTO Install Ceph On FC12, FC 上安装 Ceph 分布式文件系统 http://www.linuxidc.com/Linux/2013-05/85209.htm
Ceph 文件系统安装 http://www.linuxidc.com/Linux/2013-05/85208.htm
CentOS 6.2 64 位上安装 Ceph 0.47.2 http://www.linuxidc.com/Linux/2013-05/85206.htm
Ubuntu 12.04 Ceph 分布式文件系统 http://www.linuxidc.com/Linux/2013-04/82588.htm
Fedora 14 上安装 Ceph 0.24 http://www.linuxidc.com/Linux/2011-01/31580.htm
Ceph 的详细介绍:请点这里
Ceph 的下载地址:请点这里
本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-10/124528.htm