共计 1807 个字符,预计需要花费 5 分钟才能阅读完成。
Redis 在豌豆荚的使用历程——单实例 ==》多实例,业务代码中做 sharding==》单个 Twemproxy==》多个 Twemproxy==》Codis,豌豆荚自己开发的分布式 Redis 服务。在大规模的 Redis 使用过程中,他们发现 Redis 受限于多个方面:单机 内存有限、带宽压力、单点问题、不能动态扩容以及磁盘损坏时的数据抢救。
Redis 通常有 3 个使用途径:客户端静态分片,一致性哈希;通过 Proxy 分片,即 Twemproxy;还有就是官方的 Redis Cluster,但至今无一个新版本。随后刘奇更详细的分析了为什么不使用 Twemproxy 和 Redis Cluster:
Twemproxy:最大的痛点是无法平滑的扩容或者缩容,甚至修改配置都需要重启服务;其次,不可运维,甚至没有 Dashboard。
Redis Cluster(官方):无中心化设计,程序难以编写;代码有点吓人,clusterProcessPacket 函数有 426 行,人脑难以处理所有的状态 切换;迟迟没有正式版本,等了 4 年之久;目前还缺乏最佳实践,没有人编写 Redis Cluster 的若干条注意事项;整个系统高度耦合,升级困难。
虽然我们有众多的选择,比如 Tair 、 Couchbase 等,但是如果你需要更复杂和优秀的数据结构, Redis 可称为不二之选。基于这个原因,在 Redis 之上,豌豆荚设计了 Codis ,并将之开源。
Codis
既然重新设计,那么 Codis 首先必须满足自动扩容和缩容的需求,其次则是必须避免单点故障和单点带宽不足,做一个高可用的系统。在这之后,基于原有的遗留系统,还必须可以轻松地将数据从 Twemproxy 迁移到 Codis ,并实现良好的运维和监控。基于这些, Codis 的设计跃然纸面:
然而,一个新系统的开发并不是件容易的事情,特别是一个复杂的分布式系统。刘奇表示,虽然当时团队只有 3 个人,但是他们几乎考量了可以考量的各种细节:
- 尽量拆分,简化每个模块,同时易于升级
- 每个组件只负责自己的事情
- Redis 只作为存储引擎
- Proxy 的状态
- Redis 故障判定是否放到外部,因为分布式系统存活的判定异常复杂
- 提供 API 让外部调用,当 Redis Master 丢失时,提升 Slave 为 Master
- 图形化监控一切: slot 状态、 Proxy 状态、 group 状态、 lock 、 action 等等
而在考量了一切事情后,另一个争论摆在了眼前 ——Proxy 或者是 Smart Client : Proxy 拥有更好的监控和控制,同时其后端信息亦不易暴露,易于升级;而 Smart Client 拥有更好的性能,及更低的延时,但是升级起来却比较麻烦。对比种种优劣,他们最终选择了 Proxy ,无独有偶,在 codis 开源后, twitter 的一个分享提到他们也是基于 proxy 的设计。
Codis 主要包含 Codis Proxy ( codis-proxy )、 Codis Manager ( codis-config )、 Codis Redis ( codis-server )和 ZooKeeper 四大组件,每个部分都可动态扩容。
codis-proxy 。 客户端连接的 Redis 代理服务,本身实现了 Redis 协议,表现很像原生的 Redis (就像 Twemproxy )。一个业务可以部署多个 codis-proxy ,其本身是无状态的。
codis-config 。 Codis 的管理工具,支持添加 / 删除 Redis 节点、添加 / 删除 Proxy 节点、发起数据迁移等操作。 codis-config 自带了一个 http server ,会启动一个 dashboard ,用户可以在浏览器上观察 Codis 集群的运行状态。
codis-server 。 Codis 项目维护的一个 Redis 分支,加入了 slot 的支持和原子的数据迁移指令。
ZooKeeper 。 Codis 依赖 ZooKeeper 来存放数据路由表和 codis-proxy 节点的元信息, codis-config 发起的命令会通过 ZooKeeper 同步到各个存活的 codis-proxy 。
最后,刘奇还介绍详细的了 Codis 中 Migration 、 lock (rwlock) 等操作的实现过程和原理,以及从 Twemproxy 迁移到 Codis 的详细操作。更多 Codis 详情可移步 Clodis 开源页 GitHub
本文永久更新链接地址:http://www.linuxidc.com/Linux/2015-02/112752.htm