共计 3361 个字符,预计需要花费 9 分钟才能阅读完成。
LVS 测试报告
测试计划
- 基本功能测试
- 流量压力测试
- 响应时间测试
- 配置正确性测试
- 灾难恢复测试
测试点
-
基本功能测试
- 客户端 IP 地址正确性
- RealServer 访问 Internet 测试(包括 Iptables 规则优先级)
-
流量压力测试
-
流量峰值测试
- 流量达到一定值后的 CPU,网卡 IO,软中断情况等
-
连接数峰值测试
- 连接数达到一定值后,内存,CPU 的情况等
-
-
响应时间测试
- 在增加 LVS 前后相应时间对比
-
配置正确性测试
- RR 算法的预期值(基本功能)
-
多配置情况下的性能
- 添加上万条规则后,转发性能是否有影响
-
灾难恢复测试
- 配置导出导入测试
测试环境
- CPU Intel(R) Xeon(R) CPU E5506 @ 2.13GHz x 8
- 内存 16G
- 网卡 negotiated 1000baseT-FD
- 系统 Ubuntu 12.04
- 内核 3.5.0-23-generic
实测结果
1. 基本功能测试
客户端地址正确性
访问流程
Web Browser.Zhuhai
113.106.x.x -> LVS(58.215.138.160) -> RS(10.20.165.174)
RS Nginx 日志如下
113.106.x.x - - [12/Feb/2015:00:18:48 +0800] "GET / HTTP/1.1" 200 612 "
结论:验证 NAT 模式下客户端地址正确性为能够获取真实 IP.
RealServer 访问 Internet
RS 网络配置如下, gateway 为 LVS 的内网 IP
auto eth0
iface eth0 inet static
address 10.20.165.173
gateway 10.20.165.121
netmask 255.255.255.0
在 LVS 下添加如下 iptables 规则
/sbin/iptables -t nat -I POSTROUTING -o eth0 -j MASQUERADE
实测:
zhangbo3@rise-vm-173:~$ ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_req=1 ttl=44 time=62.0 ms
64 bytes from 8.8.8.8: icmp_req=2 ttl=44 time=62.2 ms
2. 流量压力测试
高流量测试
针对一台 LVS 做高流量测试,测试过程中,并发 200,20000 个请求。
只针对网卡流量来看,内存,磁盘,CPU User time 不统计
每个请求返回 7MB 大小的包。
压测峰值 800Mb
此时的软中断
实测软中断峰值只到 0.7%
此时的 IN 包数
此时的 OUT 包数
包数 IN + OUT 峰值为 100K
高并发小包测试
针对一台 LVS 做高并发小包测试,测试过程中,并发 80000,4KW 个请求。
每个请求返回 2K 大小的包。
峰值 IN 流量 772Mbps 平均大概 750Mbps
峰值 OUT 流量 773Mbps 平均大概 750Mbps
峰值 IN 包数 149KPS 平均大概 140KPS
峰值 OUT 包数 103KPS 平均大概 90KPS
测试过程中软中断 峰值 8.2% 平均大概 7%
测试结果:
分别测试了 LVS 在大包高流量情况下和小包高并发情况下的表现。高流量情况下
,可以完全的利用网卡性能,且无丢包和出错情况,千 M 网卡流量到 800Mb,软中断平均在 0.7%。高并发小包情况下
,带宽为 750Mbps,包流量为 250KPs 的情况下(已经接近网卡极限),软中断平均在 7%.
两种情况的测试结果表明,无论是高流量还是高并发,LVS 都能够在网卡的额定值内发挥正常。
以上测试均为对多队列网卡做软中断绑定的表现.
3. 响应时间测试
对比增加 LVS 前后相应时间变化
10000 个并发,10W 请求下
LVS 后端增加一台 RealServer 情况下
Concurrency Level: 10000
Time taken for tests: 13.198 seconds
Time per request: 0.132 [ms]
在未添加 LVS 情况下,单独测试 Realserver 数据
Concurrency Level: 10000
Time taken for tests: 14.474 seconds
Time per request: 0.145 [ms]
总结:
在增加了 LVS 前后,响应时间几乎没有影响.
4. 配置正确性测试
RR 算法的预期值(基本功能)
分别用两台独立 IP 的机器对 LVS 做大量的长连接访问,如下为 LVS 的连接分布情况.
zhangbo3@rise-rs-135:/usr/local/nginx/conf$ sudo ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 58.215.x.x:80 rr
-> 10.20.165.173:80 Masq 1 3332 14797
-> 10.20.165.174:80 Masq 1 3198 14931
总结:RR 算法,同一个 Src IP 也会定向到同一个 LVS
多配置情况下的性能
初始情况下,普通配置时候,单台机器压测数据
Concurrency Level: 10000
Time taken for tests: 5.530 seconds
Complete requests: 50000
Failed requests: 0
Write errors: 0
Keep-Alive requests: 49836
Total transferred: 42149180 bytes
HTML transferred: 30600000 bytes
Requests per second: 9040.98 [#/sec] (mean)
Time per request: 1106.074 [ms] (mean)
Time per request: 0.111 [ms] (mean, across all concurrent requests)
Transfer rate: 7442.78 [Kbytes/sec] received
向 LVS 中添加 1W 个端口映射后的压测数据
Concurrency Level: 10000
Time taken for tests: 5.588 seconds
Complete requests: 50000
Failed requests: 0
Write errors: 0
Keep-Alive requests: 49974
Total transferred: 42149870 bytes
HTML transferred: 30600000 bytes
Requests per second: 8948.49 [#/sec] (mean)
Time per request: 1117.506 [ms] (mean)
Time per request: 0.112 [ms] (mean, across all concurrent requests)
Transfer rate: 7366.76 [Kbytes/sec] received
总结:
添加上网条端口映射后,对系统性能无影响.
5. 灾难恢复测试
连接状态测试
keepalived 双机备份的情况下,打开 LVS 的连接状态后,查看同步状态发现没同步 ESTABLISHED 状态,SYNC_RCV,TIME_WAIT 状态均已同步,握手和关闭的状态都会同步,但是 ESTABLISHED 的状态要发送一定的数据包才同步,默认数据包是 3 个,每秒 50 个包的频率.
配置导出导入测试
sudo ipvsadm -Sn
可导出当前配置
LVS+Keepalived 实现四层负载及高可用 http://www.linuxidc.com/Linux/2015-02/112695.htm
LVS+Keepalived 高可用负载均衡集群架构实验 http://www.linuxidc.com/Linux/2015-01/112560.htm
Heartbeat+LVS 构建高可用负载均衡集群 http://www.linuxidc.com/Linux/2014-09/106964.htm
搭建 LVS 负载均衡测试环境 http://www.linuxidc.com/Linux/2014-09/106636.htm