“微博评论”的高性能高可用计算架构
【作业要求】
基于模块 5 第 6 课的微博实战案例,分析“微博评论”这个核心场景的业务特性,然后设计其
高性能高可用计算架构,包括但不限于如下内容:
1. 计算性能预估(不需要考虑存储性能);
2. 非热点事件时的高性能计算架构,需要考虑是否要拆分独立的服务;
3. 热点事件时的高可用计算架构。
【提示】
1. 分析方法对照“看微博”和“发微博”的案例。
一、性能估算
【用户量】
2020.9 月月活 5.11 亿,日活 2.24 亿(参考《微博 2020 用户发展报告》)。
【发微博】
微博是一个看得多发的少的业务,假设平均每天每人发 1 条微博(只考虑文字微博),则微博每天的发送量约为 2.5 亿条。
大部分的人发微博集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为 60%,则这 4 个小时的平均发微博的 TPS 计算如下:2.5 亿 * 60% / (4 * 3600) ≈ 10 K/s。
【看微博】
由于绝大部分微博用户看微博的对象是大 V 和明星,因此我们假设平均一条微博观看人数有 100 次,则观看微博的次数为:2.5 亿 * 100 = 250 亿。
大部分人看微博的时间段和发微博的时间段基本重合,因此看微博的平均 QPS 计算如下:250 亿 * 60% / (4*3600) = 1000K/s。
【发评论】
微博评论属于看多写少业务,假设每条微博评论 1 条,则微博每天的评论数为 25 亿条大多数发布评论和发布微博集中在相同时段,假设这个时段评论微博总量占比 60%,则这 4 小时的平均 TPS 为:
25 亿*60%/(43600)=10K/s
【看评论】
看评论列表和看微博请求基本在同一个数量级,QPS 为 1000K/s
二、计算架构设计
【业务特性分析】
评论微博是一个典型的写操作,但是实时性要求没有那么高,热点事件场景评论较多,用户对实时性要求没那么高,但是不允许丢数据。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
【架构设计】
1.负载均衡算法选择
评论微博的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此评论微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.业务服务器数量估算
评论微博涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 10K/s 的 TPS,需要 20 台服务器,按照 20%的预留量,25 台服务器差不多了。
看评论参照看微博,假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 1000K/s * 10% = 100K/s,看评论主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 100 台,按照 20%的预留量,最终机器数量为 120 台。
3.微博评论的多级负载均衡架构
4.看微博评论的多级负载均衡架构
5.热点事件时的高可用计算架构
由于热点事件不可预估,为保证微博内容的正常浏览和转发,可以采用限流,令牌桶算法等方式来对发评论进行控制。
版权声明: 本文为 InfoQ 作者【张逃逃】的原创文章。
原文链接:【http://xie.infoq.cn/article/1b0a000c094d9ab6cc7acb4b6】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论