架构实战营 模块九 (毕业设计) 作业
毕业设计:设计电商秒杀系统
业务背景
你作为一个电商创业公司的架构师,负责设计 6.18 大促秒杀系统的设计,你们的业务模式如下:
你们挑选选品各大电商平台上畅销和好评的商品进行销售,每个品类不超过 20 个商品,目前做了 10 个品类;
本次 6.18 秒杀选择了 1000 个充电宝,10 台 iPhone12 作为秒杀商品;
正常的日活大约 100 万用户;
老板要求万无一失。
技术背景
技术团队以 Java 为主,已经落地了微服务架构;
主要渠道是自有的 App(包括 iOS 和 Android)和微信小程序,为了促进用户转化为 App 用户,只有下载 App 才能参加秒杀活动;
目前只有单机房。
业务基本场景
登陆
浏览秒杀商品
下单
总体架构思路
正常日活用户 100 万用户,大概有 60%~120%的用户会参与秒杀活动,所以架构按照百万用户级别参与秒杀设计,适应最大业务需求。
客户端只有下载 App 才能参加秒杀活动,所以架构设计只考虑 App 的情况。
秒杀活动不经常有,保持单机房不变。
存储架构
估算
登录正常日活用户 100 万,登录数据是每天 100 万
浏览秒杀商品 100 万用户同时浏览两种商品,1000 个充电宝和 10 台 iPhone12。
下单 1000 个充电宝和 10 台 iPhone12,订单数量 1
设计
MySQL,采用主备模式,数据复制。因为需要存储的信息,只有 100w 用户数据,100w 登录信息,1010 条订单数据(1000 个充电宝和 10 台 iphone12)。
Redis,采用 Cluster 模式,4 个切片组(主备模式,每个切片分 1/4 的商品,包含 250 个充电宝,和 2-3 台 iphone)。用户根据时间随机分配到不同分片。因为有 100w 并发秒杀读请求。
计算架构
估算
登录估计有 60~120 万用户登录,考虑到 50%用户可能会集中在秒杀时间前 1 个小时登录,登录的 TPS 值:50 万/3600 ≈ 140
秒杀估计有 60~120 万用户会在前 2 秒内参与秒杀,绝大部分是读请求。秒杀的 QPS 值:30 万~60 万
负载均衡设计
App->IDC(LVS 集群+业务服务器集群)
考虑到 QPS 在 30 万~60 万,采用 LVS 作负载均衡设计
缓存架构设计
尽量把商品详情页的页面元素静态化,然后使用 CDN 或 App 把这些静态化的元素缓存起来。秒杀前大量请求可以直接由 CDN 或 App 缓存服务,不会到达服务器端,减轻服务器端压力。
秒杀活动开始,为了支撑大量高并发的库存查验请求,由 Redis 保存库存,扣减库存。因此,分布式缓存也选用 Redis。
高可用架构设计
秒杀系统在大流量的冲击下,容易出现意外情况,为了保证系统的高可用,要有相应的保护措施。
高可用-排队收到秒杀请求后并不是立即处理,而是放到消息队列,系统根据能力进行异步处理。队列的大小根据秒杀商品数量或多一些定义。相比较限流来说,排队的客户端体验要更好一些。
上图为缓存架构设计图。
版权声明: 本文为 InfoQ 作者【一雄】的原创文章。
原文链接:【http://xie.infoq.cn/article/80b1a06b081822c24d655b191】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论