模块五 - 微博评论高性能高可用计算架构
架构分析
用户量
2020.9 月月活 5.11 亿,日活 2.24 亿(参考《微博 2020 用户发展报告》)。
行为建模
发评论
假设平均每人每天发 1 条微博
假设 1 条微博平均观看有 100 次,评论数量就有 10 次
假设每条微博被观看 10 次就会收到 1 条评论
假设发评论和看微博的时间段基本一致:
60%在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00
发评论的 TPS 为:2.5 亿 * 100* 60% / (4*3600) = 100K/s
看评论
假设看评论的次数和看微博的次数一致
假设平均一条微博观看人数有 100 次
假设看微博的时间段和发微博的时间段基本重合
平均 QPS 计算如下:250 亿 * 60% / (4*3600) = 1000K/s
性能需求分析
发评论
业务特性分析
发评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
架构分析
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS->F5->Nginx->网关的多级负载均衡。
架构设计
负载均衡算法
选择发评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
业务服务器数量估算
发评论涉及几个关键的处理
内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,250 台服务器差不多了。
看评论
业务特性分析
一个典型的读场景
评论发布后不能修改
单条数据量小,但访问量大
架构分析
用户量过亿,应该要用多级负载均衡架构
QPS 大于 100 万,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
架构设计
负载均衡算法选择
游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
业务服务器数量估算
假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 1000K/s * 10% = 100K/s
由于读取微博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 100 台,按照 20%的预留量,最终机器数量为 120 台。
高性能高可用计算架构设计
发评论
负载均衡架构
看评论
负载均衡架构
缓存架构
总体架构
负载均衡架构
缓存架构
附件
微博 2020 用户发展报告
版权声明: 本文为 InfoQ 作者【彬】的原创文章。
原文链接:【http://xie.infoq.cn/article/30609cc4fa906361a6f354681】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论