【架构训练营】模块五作业
设计微博系统中”微博评论“的高性能高可用计算架构。
【作业要求】
基于模块 5 第 6 课的微博实战案例,分析“微博评论”这个核心场景的业务特性,然后设计其高性能高可用计算架构,包括但不限于如下内容:
1. 计算性能预估(不需要考虑存储性能);
2. 非热点事件时的高性能计算架构,需要考虑是否要拆分独立的服务;
3. 热点事件时的高可用计算架构。
1、性能估算
1.1 看评论
因为在看一条微博详情的时候,同时会自动加载评论列表(第一页)。因此看评论的 QPS 与看微博的一致:1000K/s
1.2 发评论
考虑到评论是一个看得多发的少的业务,假设在刷评论的人中只有 10%人会发表评论,则发评论的 TPS 计算如下:250 亿 * 60% * 10% / (4 * 3600) = 100K/s
2、高性能计算架构
2.1 看评论
2.1.1 业务特性分析
看评论是一个典型的读场景,由于评论发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。
2.1.2 架构分析
用户量过亿,应该要用多级负载均衡架构
请求量达到 250 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
2.1.3 架构设计
2.1.3.1 负载均衡算法
可以选择“轮询”算法
2.1.3.2 业务服务器数量估算
业务服务器数量估算假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读评论的请求进入系统,则请求 QPS 为 1000K/s * 10% = 100K/s,由于读取评论的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 100 台,按照 20%的预留量,最终机器数量为 120 台。
2.1.3.3 看评论的多级负载均衡架构
2.1.3.4 看评论的多级缓存架构
2.2 发评论
2.2.1 业务特性分析
发评论是一个典型的写操作,因此不能用缓存,可以用负载均衡
2.2.2 架构分析
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
2.2.3 架构设计
2.2.3.1 负载均衡算法
发评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发评论的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.2.3.2 业务服务器数量估算
发评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,250 台服务器差不多了。
评论