架构训练营 - 模块五
发微博评论
大部分的人发微博评论集中在早上 8:00~9:00 点,中午 12:00~13:00,晚上 20:00~22:00,假设这几个时间段发微博总量占比为
80%,则这 4 个小时的平均发微博评论的 TPS 计算如下:
2.5 亿 * 80% / (14 * 3600) ≈ 4K/s。
对于“发评论”可以用“漏桶算法”的变种“写缓冲”来应对海量评论,因此我们可以需要应对 80%的请求:
40K / s * 80% ≈ 30K /s
看微博评论
绝大部分的看评论都是在一个微博下的评论,假设我们的微博评论一页展示 25 条评论,每人对于一条评论最少看 100 条,那么就是 4 次请求,则观看微博评论次数为
2.5 亿 * 4 = 10 亿。
大部分人看微博评论的时间段和发微博评论的时间段基本重合,因此看微博评论的平均 QPS 计算如下:
40 亿 * 60% / (4*3600) ≈ 150K/s
看微博评论
【业务特性分析】
微博看评论是一个典型的读操作,由于发了微博评论后不能修改,因此非常适合用缓存架构,同时由于请求量很大, 负载均衡架构也需要。
【架构分析】
1、用户量过亿,应该要用多级负载均衡架构
2、请求量达到 1000 亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
【架构设计】
1.负载均衡算法选择
游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2. 业务服务器数量估算
假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博评论的请求进入系统,则请求 QPS 为 150K/s * 10% = 15K/s,由于读取微
博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 1000/s,则机器数量为 15 台,加上一定的预留量,最终机器数量为 20 台
发微博评论
【业务特性分析】
微博发评论是一个典型的写操作,因此不能缓存,可以用负载均衡。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS->F5->Nginx->网关的多级负载均衡。
【架构设计】
1、负载均衡算法选择
发微博评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中,因此发微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2、业务服务器数量估算
发微博评论设计几个关键的处理:内容审核,数据写入存储,数据写入缓存,,因此按照一个服务每秒处理 500 来估计,完成 30K/s 的 TPS,需要 60 台服务器,加上一定的预留量,70 台差不多了。
发微博评论和看微博评论需要拆分独立的服务
评论