微博评论的计算架构
用户行为建模和性能估算
背景
参考《微博 2020 用户发展报告》,2020.9 月微博用户月活 5.11 亿,日活 2.24 亿。本文主要讨论微博的评论模块架构设计。
假设平均每天每人发 1 条微博(只考虑文字微博),则微博每天的发送量约为 2.5 亿条。大部分的人发微博集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为 60%。
由于绝大部分微博用户看微博的对象是大 V 和明星,因此我们假设平均一条微博观看人数有 100 次,则观看微博的次数为: 2.5 亿 * 100 = 250 亿。
行为分析
大部分人看微博的时间段和发微博的时间段基本重合,而写评论和看评论是在看微博期间的行为,因此背景中的时间段分布同样适合评论模块。
假设有每看 10 个微博,用户会查看其中 8 个微博评论。
假设用户每观看 10 个微博的评论,会新增 1 条自己的评论。
性能估算
看评论:评论查看次数为:250 亿 * 80% = 200 亿
因此在这段时间内,平均看评论的 QPS 计算如下:200 亿 * 60% / (4*3600) = 800K/s。
写评论:写评论的次数为:250 亿 * 10% = 25 亿
因此在这段时间内,平均写评论的 TPS 计算如下:25 亿 * 60% / (4*3600) = 100K/s
高性能计算架构
评论系统也是典型的读多写少场景,为了提高可用性。因此对写评论和看评论做服务拆分以保证独立性。
看评论
业务特性分析
看微博是一个典型的读场景,由于微博发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。
架构分析
1. 用户量过亿,应该要用多级负载均衡架构;2. 请求量达到 200 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
架构设计
1.负载均衡算法选择游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2. 业务服务器数量估算假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 800K/s * 10% = 80K/s,由于读取微博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 80 台,按照一定的预留量,最终机器数量为 100 台。
写评论
业务特性分析
发微博是一个典型的写操作,因此不能用缓存,可以用负载均衡。
架构分析
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
架构设计
1. 负载均衡算法选择发微博的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2. 业务服务器数量估算发微博涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,最终机器数量为 240 台。
整体架构方案
热点事件时的高可用计算架构
针对突发的热点事件,其特点是不可预测,瞬间读写评论流量大。
针对看评论,全是读请求。可通过运维监控手段,当监测到集群的负载在某个滑动窗口中激增,或者整个集群负载达到阈值后动态扩容增加机器和服务实例。
对于写评论,采用限流的漏桶算法,先将用户的写请求缓存,在使用后台线程写入存储。
版权声明: 本文为 InfoQ 作者【极客土豆】的原创文章。
原文链接:【http://xie.infoq.cn/article/cc0d1d929d514c15d1e90f86b】。文章转载请联系作者。
评论