阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Redis集群技术及Codis实践

211次阅读
没有评论

共计 7146 个字符,预计需要花费 18 分钟才能阅读完成。

前言

本文主要讨论 Redis 集群相关技术及新发展,关于 Redis 运维等内容,以后另开主题讨论。

本文重点推荐 Codis——豌豆荚开源的 Redis 分布式中间件(该项目于 4 个月前在 GitHub 开源,目前 star 已超过 2100)。其和 Twemproxy 相比,有诸多激动人心的新特性,并支持从 Twemproxy 无缝迁移至 Codis。

好吧我们正式开始。

Redis 集群技术及 Codis 实践

 

1. Redis 常见集群技术

长期以来,Redis 本身仅支持单实例,内存一般最多 10~20GB。这无法支撑大型线上业务系统的需求。而且也造成资源的利用率过低——毕竟现在服务器内存动辄 100~200GB。

为解决单机承载能力不足的问题,各大互联网企业纷纷出手,“自助式”地实现了集群机制。在这些非官方集群解决方案中,物理上把数据“分片”(sharding)存储在多个 Redis 实例,一般情况下,每一“片”是一个 Redis 实例。

包括官方近期推出的 Redis Cluster,Redis 集群有三种实现机制,分别介绍如下,希望对大家选型有所帮助。

 

1.1 客户端分片

这种方案将分片工作放在业务程序端,程序代码根据预先设置的路由规则,直接对多个 Redis 实例进行分布式访问。这样的好处是,不依赖于第三方分布式中间件,实现方法和代码都自己掌控,可随时调整,不用担心踩到坑。

这实际上是一种静态分片技术。Redis 实例的增减,都得手工调整分片程序。基于此分片机制的开源产品,现在仍不多见。

这种分片机制的性能比代理式更好(少了一个中间分发环节)。但缺点是升级麻烦,对研发人员的个人依赖性强——需要有较强的程序开发能力做后盾。如果主力程序员离职,可能新的负责人,会选择重写一遍。

所以,这种方式下,可运维性较差。出现故障,定位和解决都得研发和运维配合着解决,故障时间变长。

这种方案,难以进行标准化运维,不太适合中小公司(除非有足够的 DevOPS)。

 

1.2 代理分片

这种方案,将分片工作交给专门的代理程序来做。代理程序接收到来自业务程序的数据请求,根据路由规则,将这些请求分发给正确的 Redis 实例并返回给业务程序。

Redis 集群技术及 Codis 实践

这种机制下,一般会选用第三方代理程序(而不是自己研发),因为后端有多个 Redis 实例,所以这类程序又称为分布式中间件。

这样的好处是,业务程序不用关心后端 Redis 实例,运维起来也方便。虽然会因此带来些性能损耗,但对于 Redis 这种内存读写型应用,相对而言是能容忍的。

这是我们推荐的集群实现方案。像基于该机制的开源产品 Twemproxy,便是其中代表之一,应用非常广泛。

Ubuntu 14.04 下 Redis 安装及简单测试 http://www.linuxidc.com/Linux/2014-05/101544.htm

Redis 集群明细文档 http://www.linuxidc.com/Linux/2013-09/90118.htm

Ubuntu 12.10 下安装 Redis(图文详解)+ Jedis 连接 Redis http://www.linuxidc.com/Linux/2013-06/85816.htm

Redis 系列 - 安装部署维护篇 http://www.linuxidc.com/Linux/2012-12/75627.htm

CentOS 6.3 安装 Redis http://www.linuxidc.com/Linux/2012-12/75314.htm

Redis 安装部署学习笔记 http://www.linuxidc.com/Linux/2014-07/104306.htm

Redis 配置文件 redis.conf 详解 http://www.linuxidc.com/Linux/2013-11/92524.htm

1.3 Redis Cluster

在这种机制下,没有中心节点(和代理模式的重要不同之处)。所以,一切开心和不开心的事情,都将基于此而展开。

Redis Cluster 将所有 Key 映射到 16384 个 Slot 中,集群中每个 Redis 实例负责一部分,业务程序通过集成的 Redis Cluster 客户端进行操作。客户端可以向任一实例发出请求,如果所需数据不在该实例中,则该实例引导客户端自动去对应实例读写数据。

Redis Cluster 的成员管理(节点名称、IP、端口、状态、角色)等,都通过节点之间两两通讯,定期交换并更新。

由此可见,这是一种非常“重”的方案。已经不是 Redis 单实例的“简单、可依赖”了。可能这也是延期多年之后,才近期发布的原因之一。

这令人想起一段历史。因为 Memcache 不支持持久化,所以有人写了一个 Membase,后来改名叫 Couchbase,说是支持 Auto Rebalance,好几年了,至今都没多少家公司在使用。

这是个令人忧心忡忡的方案。为解决仲裁等集群管理的问题,Oracle RAC 还会使用存储设备的一块空间。而 Redis Cluster,是一种完全的去中心化……

本方案目前不推荐使用,从了解的情况来看,线上业务的实际应用也并不多见。

 

2. Twemproxy 及不足之处

Twemproxy 是一种代理分片机制,由 Twitter 开源。Twemproxy 作为代理,可接受来自多个程序的访问,按照路由规则,转发给后台的各个 Redis 服务器,再原路返回。

这个方案顺理成章地解决了单个 Redis 实例承载能力的问题。当然,Twemproxy 本身也是单点,需要用 Keepalived 做高可用方案。

我想很多人都应该感谢 Twemproxy,这么些年来,应用范围最广、稳定性最高、最久经考验的分布式中间件,应该就是它了。只是,他还有诸多不方便之处。

Twemproxy 最大的痛点在于,无法平滑地扩容 / 缩容。

这样导致运维同学非常痛苦:业务量突增,需增加 Redis 服务器;业务量萎缩,需要减少 Redis 服务器。但对 Twemproxy 而言,基本上都很难操作(那是一种锥心的、纠结的痛……)。

或者说,Twemproxy 更加像服务器端静态 sharding。有时为了规避业务量突增导致的扩容需求,甚至被迫新开一个基于 Twemproxy 的 Redis 集群。

Twemproxy 另一个痛点是,运维不友好,甚至没有控制面板。

Codis 刚好击中 Twemproxy 的这两大痛点,并且提供诸多其他令人激赏的特性。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2015-04/116390p2.htm

3. Codis 实践

Codis 由豌豆荚于 2014 年 11 月开源,基于 Go 和 C 开发,是近期涌现的、国人开发的优秀开源软件之一。现已广泛用于豌豆荚的各种 Redis 业务场景(已得到豌豆荚 @刘奇同学的确认,呵呵)。

从 3 个月的各种压力测试来看,稳定性符合高效运维的要求。性能更是改善很多,最初比 Twemproxy 慢 20%;现在比 Twemproxy 快近 100%(条件:多实例,一般 Value 长度)。

 

3.1 体系架构

Codis 引入了 Group 的概念,每个 Group 包括 1 个 Redis Master 及至少 1 个 Redis Slave,这是和 Twemproxy 的区别之一。这样做的好处是,如果当前 Master 有问题,则运维人员可通过 Dashboard“自助式”切换到 Slave,而不需要小心翼翼地修改程序配置文件。

为支持数据热迁移(Auto Rebalance),出品方修改了 Redis Server 源码,并称之为 Codis Server。

Codis 采用预先分片(Pre-Sharding)机制,事先规定好了,分成 1024 个 slots(也就是说,最多能支持后端 1024 个 Codis Server),这些路由信息保存在 ZooKeeper 中。

Redis 集群技术及 Codis 实践

ZooKeeper 还维护 Codis Server Group 信息,并提供分布式锁等服务。

 

3.2 性能对比测试

Codis 目前仍被精益求精地改进中。其性能,从最初的比 Twemproxy 慢 20%(虽然这对于内存型应用而言,并不明显),到现在远远超过 Twemproxy 性能(一定条件下)。

我们进行了长达 3 个月的测试。测试基于 redis-benchmark,分别针对 Codis 和 Twemproxy,测试 Value 长度从 16B~10MB 时的性能和稳定性,并进行多轮测试。

一共有 4 台物理服务器参与测试,其中一台分别部署 codis 和 twemproxy,另外三台分别部署 codis server 和 redis server,以形成两个集群。

从测试结果来看,就 Set 操作而言,在 Value 长度 <888B 时,Codis 性能优越优于 Twemproxy(这在一般业务的 Value 长度范围之内)。

Redis 集群技术及 Codis 实践

就 Get 操作而言,Codis 性能一直优于 Twemproxy。

Redis 集群技术及 Codis 实践

 

3.3 使用技巧、注意事项

Codis 还有很多好玩的东东,从实际使用来看,有些地方也值得注意。

 

1)无缝迁移 Twemproxy

出品方贴心地准备了 Codis-port 工具。通过它,可以实时地同步 Twemproxy 底下的 Redis 数据到你的 Codis 集群。同步完成后,只需修改一下程序配置文件,将 Twemproxy 的地址改成 Codis 的地址即可。是的,只需要做这么多。

 

2)支持 Java 程序的 HA

Codis 提供一个 Java 客户端,并称之为 Jodis(名字很酷,是吧?)。这样,如果单个 Codis Proxy 宕掉,Jodis 自动发现,并自动规避之,使得业务不受影响(真的很酷!)。

 

3)支持 Pipeline

Pipeline 使得客户端可以发出一批请求,并一次性获得这批请求的返回结果。这提升了 Codis 的想象空间。

从实际测试来看,在 Value 长度小于 888B 字节时,Set 性能迅猛提升;

Redis 集群技术及 Codis 实践

Get 性能亦复如是。

Redis 集群技术及 Codis 实践

 

4)Codis 不负责主从同步

也就是说,Codis 仅负责维护当前 Redis Server 列表,由运维人员自己去保证主从数据的一致性。

这是我最赞赏的地方之一。这样的好处是,没把 Codis 搞得那么重。也是我们敢于放手在线上环境中上线的原因之一。

 

5)对 Codis 的后续期待?

好吧,粗浅地说两个。希望 Codis 不要变得太重。另外,加 pipeline 参数后,Value 长度如果较大,性能反而比 Twemproxy 要低一些,希望能有改善(我们多轮压测结果都如此)。

因篇幅有限,源码分析不在此展开。另外 Codis 源码、体系结构及 FAQ,参见如下链接:https://github.com/wandoulabs/codis

PS:线上文档的可读性,也是相当值得称赞的地方。一句话:很走心,赞!

最后,Redis 初学者请参考这个链接:http://www.gamecbg.com/bc/db/redis/13852.html,文字浅显易懂,而且比较全面。

本文得到 Codis 开发团队刘奇和黄东旭同学的大力协助,并得到 Tim Yang 老师等朋友们在内容把控方面的指导。本文共同作者为赵文华同学,他主要负责 Codis 及 Twemproxy 的对比测试。在此一并谢过。

Redis 的详细介绍 :请点这里
Redis 的下载地址 :请点这里

本文永久更新链接地址 :http://www.linuxidc.com/Linux/2015-04/116390.htm

前言

本文主要讨论 Redis 集群相关技术及新发展,关于 Redis 运维等内容,以后另开主题讨论。

本文重点推荐 Codis——豌豆荚开源的 Redis 分布式中间件(该项目于 4 个月前在 GitHub 开源,目前 star 已超过 2100)。其和 Twemproxy 相比,有诸多激动人心的新特性,并支持从 Twemproxy 无缝迁移至 Codis。

好吧我们正式开始。

Redis 集群技术及 Codis 实践

 

1. Redis 常见集群技术

长期以来,Redis 本身仅支持单实例,内存一般最多 10~20GB。这无法支撑大型线上业务系统的需求。而且也造成资源的利用率过低——毕竟现在服务器内存动辄 100~200GB。

为解决单机承载能力不足的问题,各大互联网企业纷纷出手,“自助式”地实现了集群机制。在这些非官方集群解决方案中,物理上把数据“分片”(sharding)存储在多个 Redis 实例,一般情况下,每一“片”是一个 Redis 实例。

包括官方近期推出的 Redis Cluster,Redis 集群有三种实现机制,分别介绍如下,希望对大家选型有所帮助。

 

1.1 客户端分片

这种方案将分片工作放在业务程序端,程序代码根据预先设置的路由规则,直接对多个 Redis 实例进行分布式访问。这样的好处是,不依赖于第三方分布式中间件,实现方法和代码都自己掌控,可随时调整,不用担心踩到坑。

这实际上是一种静态分片技术。Redis 实例的增减,都得手工调整分片程序。基于此分片机制的开源产品,现在仍不多见。

这种分片机制的性能比代理式更好(少了一个中间分发环节)。但缺点是升级麻烦,对研发人员的个人依赖性强——需要有较强的程序开发能力做后盾。如果主力程序员离职,可能新的负责人,会选择重写一遍。

所以,这种方式下,可运维性较差。出现故障,定位和解决都得研发和运维配合着解决,故障时间变长。

这种方案,难以进行标准化运维,不太适合中小公司(除非有足够的 DevOPS)。

 

1.2 代理分片

这种方案,将分片工作交给专门的代理程序来做。代理程序接收到来自业务程序的数据请求,根据路由规则,将这些请求分发给正确的 Redis 实例并返回给业务程序。

Redis 集群技术及 Codis 实践

这种机制下,一般会选用第三方代理程序(而不是自己研发),因为后端有多个 Redis 实例,所以这类程序又称为分布式中间件。

这样的好处是,业务程序不用关心后端 Redis 实例,运维起来也方便。虽然会因此带来些性能损耗,但对于 Redis 这种内存读写型应用,相对而言是能容忍的。

这是我们推荐的集群实现方案。像基于该机制的开源产品 Twemproxy,便是其中代表之一,应用非常广泛。

Ubuntu 14.04 下 Redis 安装及简单测试 http://www.linuxidc.com/Linux/2014-05/101544.htm

Redis 集群明细文档 http://www.linuxidc.com/Linux/2013-09/90118.htm

Ubuntu 12.10 下安装 Redis(图文详解)+ Jedis 连接 Redis http://www.linuxidc.com/Linux/2013-06/85816.htm

Redis 系列 - 安装部署维护篇 http://www.linuxidc.com/Linux/2012-12/75627.htm

CentOS 6.3 安装 Redis http://www.linuxidc.com/Linux/2012-12/75314.htm

Redis 安装部署学习笔记 http://www.linuxidc.com/Linux/2014-07/104306.htm

Redis 配置文件 redis.conf 详解 http://www.linuxidc.com/Linux/2013-11/92524.htm

1.3 Redis Cluster

在这种机制下,没有中心节点(和代理模式的重要不同之处)。所以,一切开心和不开心的事情,都将基于此而展开。

Redis Cluster 将所有 Key 映射到 16384 个 Slot 中,集群中每个 Redis 实例负责一部分,业务程序通过集成的 Redis Cluster 客户端进行操作。客户端可以向任一实例发出请求,如果所需数据不在该实例中,则该实例引导客户端自动去对应实例读写数据。

Redis Cluster 的成员管理(节点名称、IP、端口、状态、角色)等,都通过节点之间两两通讯,定期交换并更新。

由此可见,这是一种非常“重”的方案。已经不是 Redis 单实例的“简单、可依赖”了。可能这也是延期多年之后,才近期发布的原因之一。

这令人想起一段历史。因为 Memcache 不支持持久化,所以有人写了一个 Membase,后来改名叫 Couchbase,说是支持 Auto Rebalance,好几年了,至今都没多少家公司在使用。

这是个令人忧心忡忡的方案。为解决仲裁等集群管理的问题,Oracle RAC 还会使用存储设备的一块空间。而 Redis Cluster,是一种完全的去中心化……

本方案目前不推荐使用,从了解的情况来看,线上业务的实际应用也并不多见。

 

2. Twemproxy 及不足之处

Twemproxy 是一种代理分片机制,由 Twitter 开源。Twemproxy 作为代理,可接受来自多个程序的访问,按照路由规则,转发给后台的各个 Redis 服务器,再原路返回。

这个方案顺理成章地解决了单个 Redis 实例承载能力的问题。当然,Twemproxy 本身也是单点,需要用 Keepalived 做高可用方案。

我想很多人都应该感谢 Twemproxy,这么些年来,应用范围最广、稳定性最高、最久经考验的分布式中间件,应该就是它了。只是,他还有诸多不方便之处。

Twemproxy 最大的痛点在于,无法平滑地扩容 / 缩容。

这样导致运维同学非常痛苦:业务量突增,需增加 Redis 服务器;业务量萎缩,需要减少 Redis 服务器。但对 Twemproxy 而言,基本上都很难操作(那是一种锥心的、纠结的痛……)。

或者说,Twemproxy 更加像服务器端静态 sharding。有时为了规避业务量突增导致的扩容需求,甚至被迫新开一个基于 Twemproxy 的 Redis 集群。

Twemproxy 另一个痛点是,运维不友好,甚至没有控制面板。

Codis 刚好击中 Twemproxy 的这两大痛点,并且提供诸多其他令人激赏的特性。

更多详情见请继续阅读下一页的精彩内容 :http://www.linuxidc.com/Linux/2015-04/116390p2.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-20发表,共计7146字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中