微博评论的高性能高可用计算架构设计
用户量
2020.9 月月活 5.11 亿,日活 2.24 亿(参考《微博 2020 用户发展报告》)。
行为建模和性能估算
【写评论】
考虑到微博是一个看得多发的少的业务,假设平均每天每人发 1 条微博(只考虑文字微博),则微博每天的发送量约为 2.5 亿条。平均每条微博观看人数有 100 次,假设每人对每 10 条微博发表评论一次。
大部分的人发微博集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为 60%,看微博时间也是这个时间。则这 4 个小时的平均写评论的 TPS 计算如下:
2.5 亿 * 100 * 60% * 10% / (4 * 3600) ≈ 100 K/s。
【看评论】
每个人看微博时,基本都会看评论
所以看评论的平均 QPS 计算如下:
2.5 亿 * 100 * 60% / (4 * 3600) ≈ 1000 K/s。
高性能计算架构
写评论
【业务特性分析】
写评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
【架构设计】
1. 负载均衡算法选择
写评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此写评论的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2. 业务服务器数量估算
写评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,240 台服务器差不多了
看评论
【业务特性分析】
看评论是一个典型的读操作,一般评论发了后不能更改,因此可以用缓存架构,请求量也大,得用负载均衡。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
请求量达到 250 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
【架构设计】
1. 负载均衡算法选择
游客都可以直接看微博和评论,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法
2. 业务服务器数量估算
假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读评论的请求进入系统,则请求 QPS 为 1000K/s * 10% = 100K/s,由于读评论的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 100 台,按照 20%的预留量, 最终机器数量为 120 台。
整体架构设计
多级负载均衡整体架构
多级缓存整体架构
高可用架构设计
热点事件的用户行为建模和性能估算
热点事件指某个大 V 或者明星爆料或者官宣,虽然只有一两条微博,但引起大量用户在短时间内访问,给系统造成很大压力。
【写评论】
造成热点事件的微博自己只有 1~2 条,但是用户围观后会有很多评论,假设有 1%的围观用户会在事件发生后 60 分钟内评论。
【看评论】
很难预估,和事件的影响力和影响范围有关。
业务特性分析
【写评论】
评论时,一般用户的评论很快就会被淹没在其余人的评论之下,一般不在着急看到自己发的评论。
【看评论】
热点事件发生,绝大部分请求落在同一个微博上包括评论。
高可用架构分析
【写评论】
由于量大,但并不要求立马处理,所以可以考虑进行写缓冲,使用消息队列缓存写评论,
【看评论】
热点事件发生,热点事件导致评论也存在热点,考虑多副本缓存。由于使用了应用内缓存,热点问题可能并不是特别突出
高可用架构设计
若有收获,就点个赞吧
评论