”微博评论“的高性能高可用计算架构
一. 计算性能预估
1.用户量
2020.9 月月活 5.11 亿,日活 2.24 亿(参考《微博 2020 用户发展报告》)。
2.关键行为
发评论;
看评论。
3.用户行为建模和性能估算
(1)写评论
考虑到微博是一个看得多发的少的业务,假设平均每天每人发 1 条微博(只考虑文字微博),则微博每天的发送量约为 2.5 亿条。 大部分的人发微博集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占 比为 60%,则这 4 个小时的平均发微博的 TPS 计算如下:
2.5 亿 * 60% / (4 * 3600) ≈ 10 K/s
同时,我们假设写微博的次数中,平均一条微博有 2 条评论。
大部分人写微博评论的时间段和发微博的时间段基本重合,因此写微博评论的平均 TPS 计算如下:
10 K/s*5≈ 20 K/s
(2)看评论
由于绝大部分微博用户看微博的对象是大 V 和明星,因此我们假设平均一条微博观看人数有 100 次,则观看微博的次数为:
2.5 亿 * 100 = 250 亿.
大部分人看微博的时间段和发微博的时间段基本重合,因此看微博的平均 QPS 计算如下:
250 亿 * 60% / (4*3600) = 1000K/s
同时,我们假设看微博的次数中,有 10%的看微博请求会去读评论,大部分人读微博评论的时间段和看微博的时间段基本重合,因此微博评论的平均 QPS 计算如下:
1000K/s*10 = 100K/s
二. 非热点事件时的高性能计算架构
1.写评论
(1)业务特性分析
写微博评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
(2)架构分析
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS->F5->Nginx->网关的多级负载均衡。
(3)架构设计
负载均衡算法选择
微博评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此微博评论的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
业务服务器数量估算
写微博评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)等, 因此按照一个服务每秒处理 500 来估算,完成 20K/s 的 TPS,需要 40 台服务器,加上一定的预留量,50 台服务器差不多了。
2.看评论
(1)业务特性分析
看微博评论是一个典型的读场景,由于微博评论发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。
(2)架构分析
用户量过亿,应该要用多级负载均衡架构;
请求量达到 25 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
(3)架构设计
负载均衡算法选择 游客都可以直接看微博评论,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法;
业务服务器数量估算
假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博评论的请求进入系统,则请求 QPS 为 100K/s * 10% = 10K/s,由于读取微博评论的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 10 台,按照 20%的预留 量,最终机器数量为 12 台。
3.微博评论架构设计
考虑到微博评论整体功能重要性相对发微博和看微博要低,在业务高峰期可优先考虑做服务限流和降级,因此需要将其与发微博和看微博服务进行独立部署,发评论和看评论无需拆分。
(1)多级负载均衡整体架构
(2)多级缓存整体架构
三、热点事件时的高可用计算架构
假设有 10%的围观用户会在热点事件发生后 60 分钟内转发、评论。
1.业务特性分析
评论微博的重要性和业务影响不如发微博和看微博。
2.架构分析
评论微博重要性和业务影响不如发微博和看微博,可以考虑对“评论微博”进行限流、降级或熔断。
3.架构设计
(1)限流
评论微博需要用户手动输入文字,丢请求对用户体验影响较大,所以尽最大可能选择不丢弃用户请求的算法。
(2)降级、熔断
在主要业务(如发微博和看微博)出现较大性能压力时可将“评论微博”降级或熔断。
评论