模块五作业
微博评论性能估算
写评论
因此我们假设平均一条微博观看人数有 100 次,写评论的人大约占 10%,因此每天写评论微博的条数为:
2.5 亿 * 10 = 25 亿。
大部分的人发微博集中在 4 个小时,平均微博写评论的 TPS 计算如下:
25 亿 * 60% / (4 * 3600) ≈ 100 K/s。
看评论
假设看评论的人大约占所有看微博人数的 50%,且大部分只看前 100 条,即翻 3 页,因此每天看微博评论的条数为:2.5 亿 * 50 *100 = 12500 亿。
看评论和写评论的时间基本重合,
12500 亿 * 60% / (4 * 3600) ≈ 50000 K/s ≈ 50 M/s。
架构设计
写评论
【业务特性分析】
写评论是一个典型的写操作,因此不能用缓存,可以用负载均衡。
【架构分析】
用户量过亿,应该要用多级负载均衡架构,覆盖 DNS -> F5 -> Nginx -> 网关的多级负载均衡。
【架构设计】
1.负载均衡算法选择
写评论的时候依赖登录状态,登录状态一般都是保存在分布式缓存中的,因此发微博的时候,将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.业务服务设计
写评论需要拆分独立服务,与发微博、看微博的服务分开,因为二者联系不大,且热点事件发生时,写评论的访问量远远大于发微博,实时性的要求也不同。
3.业务服务器数量估算
写评论涉及几个关键的处理:内容审核(依赖审核系统)、数据写入存储(依赖存储系统)、数据写入缓存(依赖缓存系统),因此按照一个服务每秒处理 500 来估算,完成 100K/s 的 TPS,需要 200 台服务器,加上一定的预留量,大约需要 250 台服务器。
看评论
【业务特性分析】
看评论是一个典型的读场景,由于评论发了后不能修改,因此非常适合用缓存架构,同时由于请求量很大,负载均衡架构也需要。 由于实时性要求不高,可以使用限流方式保证在热点出现时,系统稳定运行。
【架构分析】
1. 用户量过亿,应该要用多级负载均衡架构;
2. 请求量达到万亿,应该要用多级缓存架构,尤其是 CDN 缓存,是缓存设计的核心。
【架构设计】
1.负载均衡算法选择
游客都可以直接看微博,因此将请求发送给任意服务器都可以,这里选择“轮询”或者“随机”算法。
2.业务服务设计
看评论和写评论有直接关系,90%的用户写完评论后会查看自己的评论,并且写评论会关系到评论的缓存策略,所以看评论和写评论服务合并为一个服务
3. 业务服务器数量估算
假设 CDN 能够承载 90%的用户流量,那么剩下 10%的读微博的请求进入系统,则请求 QPS 为 50 M/s * 10% = 5000K/s,由于读取微博的处理逻辑比较简单,主要是读缓存系统,因此假设单台业务服务器处理能力是 50K/s,则机器数量为 100 台,小于写服务器需求,最终机器数量为 250 台。
整体方案
评论业务:任务分配 双机房~三机房
负载均衡架构:
注:服务集群改为评论服务集群
多级缓存架构:
缓存两个纬度的数据:评论热度及评论时间
评论热点事件业务特性分析
写评论
评论热点微博数据量和并发量会非常大,但实时性要求不高,因为肯本找不到自己发的评论。所以可以考虑对超过 100 条/s 评论的微博进行限流,考虑使用漏桶算法。
看评论
热度评论的查看,是查看评论的重点,可以缓存到 CDN,最大程度的承载用户请求,由后台定时刷新热度 CDN 缓存
评论时间纬度的查看,可以考虑做应用级别的缓存,不考虑真实的时间先后
评论