写点什么

第三方测评:GaussDB(for Redis) 稳定性与扩容表现

  • 2022 年 1 月 26 日
  • 本文字数:3704 字

    阅读完需:约 12 分钟

摘要:本文将通过采用 Redis Labs 推出的多线程压测工具 memtier_benchmark 对比测试下 GaussDB(for Redis) 和原生 Redis 的特性差异。

 

本文分享自华为云社区《墨天轮评测:GaussDB(for Redis)稳定性与扩容表现》,作者: 高斯 Redis 官方博客。

 

GaussDB(for Redis) 是华为云推出的企业级 Redis,采用计算存储分离架构,兼容 Redis 生态的云原生 NoSQL 数据库,基于共享存储池的多副本强一致机制,支持持久化存储,保证数据的安全可靠。具有高兼容、高性价比、高可靠、弹性伸缩、高可用、无损扩容等特点。

 

GaussDB(for Redis)满足高读写性能场景及容量需弹性扩展的业务需求,广泛使用于电商、游戏以及视频直播等行业。即可作为前端缓存支撑大并发的访问,也可作为底层数据库负责核心数据可靠存储。

 

接下来我们使用采用 Redis Labs 推出的多线程压测工具 memtier_benchmark 对比测试下 GaussDB(for Redis) 和原生 Redis 的特性差异。

1、创建 GaussDB(for Redis)实例

 

在华为云通过控制台购买 GaussDB(for Redis)实例,测试实例的配置为 8G 容量,如下所示。 



如截图所示,GaussDB(for Redis)提供了统一的负载均衡地址和端口,方便应用程序访问高可用的 Redis 服务。持久化数据存储空间直观展示了数据量及容量上限。另外,依托于 GaussDB(for Redis)存算分离的架构,实例的容量和性能可以按需分别扩展:

  • 如需更多容量,只需点击“磁盘扩容”;

  • 如需更高的吞吐性能,则通过“规格变更”或“添加节点”完成。

2、安装 memtier_benchmark

 

使用与 GaussDB(for Redis)测试实例相同子网的 ECS 云服务器,部署 memtier_benchmark 测试环境

# yum install autoconf automake make gcc-c++ # yum install pcre-devel zlib-devel libmemcached-devel openssl-devel# git clone https://github.com/RedisLabs/memtier_benchmark.git# cd memtier_benchmark# autoreconf -ivf# ./configure# make && make install
如libevent版本较低,需要在安装memtier_benchmark前 按以下步骤安装libevent# wget https://github.com/downloads/libevent/libevent/libevent-2.0.21-stable.tar.gz# tar xfz libevent-2.0.21-stable.tar.gz# pushd libevent-2.0.21-stable# ./configure# make# sudo make install# popd# export PKG_CONFIG_PATH=/usr/local/lib/pkgconfig:${PKG_CONFIG_PATH}
确认安装成功# memtier_benchmark --help
复制代码

3、数据批量装载

向 GaussDB(for Redis) 中装载数据

使用 memtier_benchmark 向 GaussDB(for Redis) 中装载数据命令如下,单个 value 长度 1000 字节,12 个线程,每个线程 16 个客户端,每个客户端发出请求数 100000 个,全部是写入操作。

memtier_benchmark -s 192.XXX.XXX.XXX -a XXXXXXX -p 8635 -c 16 -t 12  -n 100000 --random-data --randomize --distinct-client-seed -d 1000 --key-maximum=65000000 --key-minimum=1 --key-prefix= --ratio=1:0 --out-file=./result_small_6G_set.log
复制代码

 

可以看到执行了 1920 万次操作,平均每秒 4.4w 的 ops,总耗时 438 秒。

 

使用 redis-cli 登录实例,查看 dbsize(注意:由于采用 MVCC 机制,查询结果为 key 数量的预估值,非实时的准确值。)

向原生 Redis 中装载数据

为了对比方便,我们在另一台 4 核 8G 的 ECS 上部署一个单节点的开源 Redis,版本与 GaussDB(for Redis)一致使用 5.0

 

还是使用 memtier_benchmark 相同的配置向原始 redis 中插入数据

memtier_benchmark -s 192.XXX.XXX.XXX  -a XXXXXXX  -p 6379 -c 16 -t 12  -n 100000 --random-data --randomize --distinct-client-seed -d 1000 --key-maximum=65000000 --key-minimum=1 --key-prefix= --ratio=1:0 --out-file=./result_small_6G_set_2.log
复制代码

 

执行一段时间后出现大量报错

 

从 Redis 日志中查看,是在做 RDB 快照的时候出现了问题。从系统日志中分析当时发生了 OOM 故障。



这其实和原生 Redis 的 RDB 快照处理方式有关,Redis 是 fork 了一个进程使用 copy-on-write 的方式持久化内存数据,这必然会导致更多内存的申请和使用。并且除了 RDB 快照,原生 redis 在执行 aof 重写,新加从库的操作时也会申请使用更多的内存。为了避免 OOM 的情况出现,操作系统往往要预留出一倍的空闲内存,限制了内存资源的使用率造成极大的浪费。

 

反观 GaussDB(for Redis) 由于摒弃了 fork 机制,使得架构更健壮。

从上面的测试也可以看到,导入同样数量的数据时,GaussDB(for Redis) 的可用性和响应的性能没有受到任何的影响。

4、实例紧急扩容

 

为了测试能进行下去,我们将 GaussDB(for Redis) 和原生 Redis 分别扩容到 16G。

GaussDB(for Redis)扩容到 16G

对 GaussDB(for Redis) 来说由于采用了存算分离的架构,分布式存储池海量在线,按额度分配给用户使用。扩容过程没有数据拷贝,也不会影响业务使用。接下来我们测试使用 memtier_benchmark 在持续的 RW 操作场景下 GaussDB(for Redis)的扩容过程,看看是否会影响业务的读写;

memtier_benchmark -s 192.XXX.XXX.XXX -a XXXXXXXX -p 8635 -c 16 -t 12  -n 10000 --random-data --randomize --distinct-client-seed -d 1000 --key-maximum=65000000 --key-minimum=1 --key-prefix= --ratio=1:0 --out-file=./result_small_6G_set_get.log
复制代码

 

在执行命令的同时进行扩容操作,查看测试结果和监控发现,扩容期间未见报错,GaussDB(for Redis) 响应时延没有明显变化。

 

 

原生 Redis 扩容到 16G

原生 Redis 实例受服务器内存限制,要扩容到 16G 只能先升级 ECS 配置。需要重启服务器,存在短时间业务不可使用的问题。升级后再次使用 memtier_benchmark 插入数据依旧报错,检查发现还是出现了 OOM

 

 

 

没办法,只能再次升级云服务器 ECS 配置到 32G,升级期间 Redis 服务再次不可用。这次升级后终于使用 memtier_benchmark 成功的插入了数据。

5、数据淘汰问题

 

下面我们来看高压力下导致数据写满的场景,直观对比双方的表现。

插入数据到 GaussDB(for Redis)

memtier_benchmark 参数设置如下,全部为写入操作,set 的单个 value 长度 50k 字节,12 个线程,每个线程 16 个客户端,每个客户端发出请求数 10000 次请求。折算下来 总的插入的 key 约为 192 万,数据量约 96G,远大于实例的规格了。

memtier_benchmark -s 192.XXX.XXX.XXX  -a XXXXXXX -p 8635 -c 16 -t 12  -n 10000 --random-data --randomize --distinct-client-seed -d 50000 --key-maximum=65000000 --key-minimum=1 --key-prefix= --ratio=1:0 --out-file=./result_small_6G_set.log 
复制代码

 

运行了一段时间后,从监控上看到 GaussDB(for Redis)磁盘空间 100%,并且实例进入只读模式拒绝新数据的写入。检查发现共导入数据 194954 条。

 

 

 

 

对于 GaussDB(for Redis)来说,当容量接近写满的时候,用户会收到告警通知,此时只需在控制台点击“磁盘扩容”,即可秒级完成扩容,对业务没有影响。

 

 

插入数据到原生 Redis

原生 Redis 通过配置限制了内存大小为 8G,同样执行以下命令导入数据

memtier_benchmark -s 192.XXX.XXX.XXX  -a XXXXXXX -p 8635 -c 16 -t 12  -n 10000 --random-data --randomize --distinct-client-seed -d 50000 --key-maximum=65000000 --key-minimum=1 --key-prefix= --ratio=1:0 --out-file=./result_small_6G_set.log 
复制代码

 

运行一段时间后报错。

 

登录 redis 查看内存已写满

 

也可以通过配置 maxmemory-policy 设置数据淘汰策略保障数据写入,如图我们将淘汰策略设置成 allkeys-lru,即淘汰最近最少使用的 key 满足插入数据的内存需求;

 

修改配置后 插入正常

 

综上,GaussDB(for Redis)更加看重数据安全,将“保障用户数据不丢”作为最高优先级。当数据写满后自动进入只读模式,确保实例中数据的安全。通过控制台可以做到快速的扩容,最大可能降低对业务的影响。 原生 Redis 提供了数据淘汰参数,用户可自主选择策略当数据写满后淘汰符合条件的数据,设计思想更偏向于缓存的用途“数据可随意丢弃”。如使用在重要的业务场景,不希望数据丢失,建议选择 GaussDB(for Redis)。

6、测试总结

 

本次我们使用 memtier_benchmark 分别对 GaussDB(for Redis) 和原生 Redis 进行 set 操作的测试,8G 规格的 GaussDB(for Redis) 很顺利的完成了数据加载的操作,原生 Redis 出现 OOM 异常导致数据加载失败。原生 Redis 通过 fork 进程 copy-on-write 的方式拷贝数据,在 RDB 快照、aof 重写以及新增从库等操作时容易出现 OOM 异常。反观 GaussDB(for Redis) 由于摒弃了 fork 机制,使得架构更健壮,服务的可用性更强。

 

在后续的扩容操作中 GaussDB(for Redis)能够快速完成且对业务 RW 操作无影响,而原生 Redis 扩容需停服,期间业务无法正常使用。GaussDB(for Redis)快速扩容的特性非常适合生产环境中需要紧急扩容的场景,如游戏开服、电商抢购的火爆程度远超预期时。从测试的情况看,扩容几乎达到了秒级完成,且扩容过程中对业务的读写完全没有影响。

 

另外更重要的原生 Redis 无论采用 RDB 还是 aof 方式进行数据持久化,都有数据丢失的风险,而 GaussDB(for Redis)支持全量数据落盘,GaussDB 基础组件服务提供底层数据三副本冗余保存,能够保证数据零丢失。

 

如果使用场景既要满足 KV 查询的高性能,又希望数据得到重视能够不丢,建议从原生 Redis 迁移到 GaussDB(for Redis) 。

​本文转载自墨天轮

 

点击关注,第一时间了解华为云新鲜技术~

发布于: 刚刚阅读数: 2
用户头像

提供全面深入的云计算技术干货 2020.07.14 加入

华为云开发者社区,提供全面深入的云计算前景分析、丰富的技术干货、程序样例,分享华为云前沿资讯动态,方便开发者快速成长与发展,欢迎提问、互动,多方位了解云计算! 传送门:https://bbs.huaweicloud.com/

评论

发布
暂无评论
第三方测评:GaussDB(for Redis)稳定性与扩容表现