微博系统中”微博评论“的高性能高可用计算架构
1. 计算性能预估
1.1. 用户量
2020.9 月月活 5.11 亿,日活 2.24 亿 (参考《微博 2020 用户发展报告》)。
1.2. 关键行为
1. 发评论 ;
2. 看评论。
1.3. 用户行为建模和性能估算
1.3.1. 写评论
假设平均每天每人发 1 条微博,则微博每天的发送量约为 2.5 亿条。 大部分的人发微博集中在 8:00~9:00、 12:00~13:00、20:00~22:00 三个时段,假设这几个时间段发微博总量占 比为 60%,则这 4 个小时的平均发微博的 TPS 计算如下:2.5 亿 * 60% / (4 * 3600) ≈ 10 K/s 同时,我们假设写微博的次数中,平均一条微博有 2 条评论。大部分人写微博评论的时间段和发微博的时间段基本重合,因此写微博评论的平均 TPS 计算如下:10 K/s*5≈ 20 K/s
1.3.2. 看评论
假设平均一条微博评论人数有 10 次,则微博评论的次数为:2.5 亿 * 10 = 25 亿。大部分人微博评论的时间段和发微博的时间段基本重合,因此微博评论的平均 QPS 计算如下:25 亿 * 60% / (4*3600) = 100k/s。
2. 非热点事件时的高性能计算架构
2.1. 写评论
2.1.1. 业务特性分析
写微博评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
2.1.2. 架构分析
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS->F5->Nginx->网关的多级负载均衡。
2.1.3. 负载均衡算法选择
微博评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此微博评论的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.1.4. 业务服务器数量估算
按照一个服务每秒处理 500 来估算,完成 20K/s 的 TPS,需要 40 台服务器,加上一定的预留量 20%,约需要 48 台。
2.2. 看评论
2.2.1. 业务特性分析
由于微博评论发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。
2.2.2. 架构分析
用户量过亿,应该要用多级负载均衡架构;请求量达到 25 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
2.2.3. 负载均衡算法选择
游客都可以直接看微博评论,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.2.4. 业务服务器数量估算
假设 CDN 能够承载 90% 的用户流量,那么剩下 10% 的读微博评论的请求进入系统,则请求 QPS 为 100K/s * 10% = 10K/s,由于读取微博评论的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 10 台,按照 20% 的预留 量,最终机器数量为 12 台。
2.3. 微博评论架构设计
考虑到微博评论整体功能重要性相对发微博和看微博要低,在业务高峰期可优先考虑做服务限流和降级,因此需要将其与发微博和看微博服务进行独立部署,发评论和看评论无需拆分。
2.3.1. 多级负载均衡整体架构
2.3.2. 多级缓存整体架构
3. 热点事件时的高可用计算架构
假设有 10% 的围观用户会在热点事件发生后 60 分钟内转发、评论。
3.1. 业务特性分析
评论微博的重要性和业务影响不如发微博和看微博。
3.2. 架构分析
评论微博重要性和业务影响不如发微博和看微博,可以考虑对“评论微博”进行限流、降级或熔断。
3.3. 架构设计
3.3.1. 限流
评论微博需要用户手动输入文字,丢请求对用户体验影响较大,所以尽最大可能选择不丢弃用户请求的算法。
3.3.2. 降级、熔断
在主要业务(如发微博和看微博)出现较大性能压力时可将“评论微博”降级或熔断。
评论