微博评论架构设计
一、用户
【用户量】
2021 年,微博月活跃用户达到 5.3 亿,移动端占比 94%,日活跃用户达到 2.3 亿。
【关键行为】
1、发评论
2、看评论
二、发评论
【发评论】
考虑到微博是一个看得多发的少的业务,假设平均每天每人发 1 条评论(只考虑文字微博评论),则微博评论每天的发送量约为 2.3 亿条。大部分的人发微博集中在早上 7:00~8:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为 60%,则这 4 个小时的平均发微博评论的 TPS 计算如下:2.3 亿 * 60% / (4 * 3600) ≈ 9.5 K/s。
【看评论】由于绝大部分微博用户看微博的对象是大 V 和明星,因此我们假设平均一条微博观看人数有 100 次,则观看微博的次数为:2.3 亿 * 100 = 230 亿。大部分人看微博的时间段和发微博的时间段基本重合,因此看微博的平均 QPS 计算如下:230 亿 * 60% / (4*3600) = 950K/s。
【业务特性分析】
发微博评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
【架构设计】
1. 负载均衡算法选择 发微博评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发微博评论的时候,将请求发送给任意服务器都可以,这 里选择“轮询”或者“随机”算法。
2. 业务服务器数量估算 发微博评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),可以增加 buffer 来减少缓冲用户的请求量,因此按照一个服务每秒处理 500 来估算,完成 9.5K/s 的 TPS,需要 20 台服务器,加上一定的预留量,30 台服务器差不多了。
三、看评论负载均衡架构图
四、看评论
【业务特性分析】
看微博评论是一个典型的读操作,由于请求量太大,可以用负载均衡。
【架构分析】
1、用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
2、请求量已经达到 230 亿,应该采用多级缓存架构,尤其是 CDN 缓存(核心)
【架构设计】
1. 负载均衡算法选择 ,这里选择“轮询”或者“随机”算法。
2. 这里使用 CND 能够承受到 80-90%的用户请求,所以这里只有白粉之 10~20 进入到系统中,这里按照最多的 20%来计算 QPS 算下来是 950k/s * 20% 190k/s,这里只是读请求,所以按照一个服务每秒处理 1000 来估算,完成 190K/s 的 QPS,需要 190 台服务器,加上一定的预留量,220 台服务器差不多了。
评论