写点什么

微博评论的计算架构

作者:极客土豆
  • 2022 年 6 月 25 日
  • 本文字数:1278 字

    阅读完需:约 4 分钟

用户行为建模和性能估算

背景

参考《微博 2020 用户发展报告》,2020.9 月微博用户月活 5.11 亿,日活 2.24 亿。本文主要讨论微博的评论模块架构设计。

假设平均每天每人发 1 条微博(只考虑文字微博),则微博每天的发送量约为 2.5 亿条。大部分的人发微博集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为 60%。

由于绝大部分微博用户看微博的对象是大 V 和明星,因此我们假设平均一条微博观看人数有 100 次,则观看微博的次数为: 2.5 亿 * 100 = 250 亿。

行为分析

  • 大部分人看微博的时间段和发微博的时间段基本重合,而写评论和看评论是在看微博期间的行为,因此背景中的时间段分布同样适合评论模块。

  • 假设有每看 10 个微博,用户会查看其中 8 个微博评论。

  • 假设用户每观看 10 个微博的评论,会新增 1 条自己的评论。

性能估算

  1. 看评论:评论查看次数为:250 亿 * 80% = 200 亿

因此在这段时间内,平均看评论的 QPS 计算如下:200 亿 * 60% / (4*3600) = 800K/s。

  1. 写评论:写评论的次数为:250 亿 * 10% = 25 亿

因此在这段时间内,平均写评论的 TPS 计算如下:25 亿 * 60% / (4*3600) = 100K/s

高性能计算架构

评论系统也是典型的读多写少场景,为了提高可用性。因此对写评论和看评论做服务拆分以保证独立性。

看评论

业务特性分析

看微博是一个典型的读场景,由于微博发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。

架构分析

1. 用户量过亿,应该要用多级负载均衡架构;2. 请求量达到 200 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。

架构设计

1.负载均衡算法选择游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。

2. 业务服务器数量估算假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 800K/s * 10% = 80K/s,由于读取微博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 80 台,按照一定的预留量,最终机器数量为 100 台。

写评论

业务特性分析

发微博是一个典型的写操作,因此不能用缓存,可以用负载均衡。

架构分析

用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。

架构设计

1. 负载均衡算法选择发微博的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。

2. 业务服务器数量估算发微博涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,最终机器数量为 240 台。

整体架构方案


热点事件时的高可用计算架构

针对突发的热点事件,其特点是不可预测,瞬间读写评论流量大。

  1. 针对看评论,全是读请求。可通过运维监控手段,当监测到集群的负载在某个滑动窗口中激增,或者整个集群负载达到阈值后动态扩容增加机器和服务实例。

  2. 对于写评论,采用限流的漏桶算法,先将用户的写请求缓存,在使用后台线程写入存储。

发布于: 刚刚阅读数: 3
用户头像

极客土豆

关注

还未添加个人签名 2018.07.17 加入

还未添加个人简介

评论

发布
暂无评论
微博评论的计算架构_极客土豆_InfoQ写作社区