写点什么

微博评论的高性能高可用计算架构

  • 2022 年 6 月 25 日
  • 本文字数:1112 字

    阅读完需:约 4 分钟

1. 用户行为建模和性能估算

【评论】

假设微博每天的发送量约为 2.5 亿条,平均一条微博观看人数有 100 次,每条微博评论 10 条,

则 4 个小时的平均发微博的 TPS 计算如下:

25 亿 * 60% / (4 * 3600) ≈ 100 K/s。

【看评论】

假设每条微博有 20 个人看评论

大部分人看评论的时间段和发微博的时间段基本重合,因此看微博的平均 QPS 计算如下:

50 亿 * 60% / (4*3600) = 200K/s。

2. 高性能计算架构设计

评论

【业务特性分析】

评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。

【架构分析】

用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。

【架构设计】

1. 负载均衡算法选择

发微博的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此评论的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。

2. 业务服务器数量估算

评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,250 台服务器差不多了。


看评论

【业务特性分析】

看评论是一个典型的读场景,由于评论发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。

【架构分析】

1. 用户量过亿,应该要用多级负载均衡架构;

2. 请求量达到 500 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。

【架构设计】

1.负载均衡算法选择

游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。

2. 业务服务器数量估算

假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 200K/s * 10% = 20K/s,由于读取微博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 20 台,按照 20%的预留量,最终机器数量为 24 台


3. 评论高可用计算架构设计

热点事件指某个大 V 或者明星爆料或者官宣,虽然只有一两条微博,但引起大量用户在短时间内访问,给系统造成很大压力。

【评论微博】

造成热点事件的微博自己只有 1~2 条,但是用户围观后会有很多评论,假设有 10%的围观用户会在事件发生后 60 分钟内评论。

【看评论】

很难预估,和事件的影响力和影响范围有关


核心架构设计思想:既然无法预估,那就做好预防!

【架构设计分析】

1. 评论微博

评论的微博重要性和影响力不如原微博,可以考虑对“评论微博”排队,使用消息队列对评论进行排队。

2. 看评论

很明显,热点事件微博评论存在缓存热点问题,可以考虑“多副本缓存”,由于原有的缓存架构已经采用了“应用内的缓存,总体上来看,缓存热点问题其实不一定很突出。

用户头像

还未添加个人签名 2021.05.30 加入

还未添加个人简介

评论

发布
暂无评论
微博评论的高性能高可用计算架构_爱晒太阳的大白_InfoQ写作社区