架构实战营 毕业设计
毕业设计:设计电商秒杀系统
1. 业务背景
你作为一个电商创业公司的架构师,负责设计 6.18 大促秒杀系统的设计,你们的业务模式如下:
你们挑选选品各大电商平台上畅销和好评的商品进行销售,每个品类不超过 20 个商品,目前做了 10 个品类;
本次 6.18 秒杀选择了 1000 个充电宝,10 台 iPhone12 作为秒杀商品;
正常的日活大约 100 万用户;
老板要求万无一失。
2. 技术背景
技术团队以 Java 为主,已经落地了微服务架构;
主要渠道是自有的 App(包括 iOS 和 Android)和微信小程序,为了促进用户转化为 App 用户,只有下载 App 才能参加秒杀活动;
目前只有单机房。
3. 业务基本场景
活动未开始不能点击购买
活动开始可以点击购买
下单检查是否超过秒杀商品总数
超过商品总数,显示秒杀结束
秒杀成功后再付款
4. 总体架构思路
正常日活用户 100 万用户,大概有 60%~120%的用户会参与秒杀活动,所以架构按照百万用户级别参与秒杀设计,适应最大业务需求。
客户端只有下载 App 才能参加秒杀活动,所以架构设计只考虑 App 的情况。
秒杀活动不经常有,保持单机房不变。
5. 存储架构设计
5.1 存储架构估算
登录
正常日活用户 100 万,登录数据是每天 100 万
浏览秒杀商品
100 万用户同时浏览两种商品,1000 个充电宝和 10 台 iPhone12。
下单
1000 个充电宝和 10 台 iPhone12,订单数量 1
5.2 存储架构设计
秒杀开始时,为了支撑大量高并发的商品库存查询,用 Redis Cluster 支持。
商品库存扣减和订单操作数据量不大,仍然有 MySQL 支持。
6. 计算架构设计
6.1 计算性能估算
登录
估计有 60~120 万用户登录,考虑到 50%用户可能会集中在秒杀时间前 1 个小时登录,登录的 TPS 值:
50 万/3600 ≈ 140
秒杀
估计有 60~120 万用户会在前 2 秒内参与秒杀,绝大部分是读请求。秒杀的 QPS 值:30 万~60 万
6.2 计算架构之负载均衡
考虑到 QPS 在 30 万~60 万,采用 LVS 作负载均衡设计
6.3 计算架构之缓存架构
尽量把商品详情页的页面元素静态化,然后使用 CDN 或 App 把这些静态化的元素缓存起来。秒杀前大量请求可以直接由 CDN 或 App 缓存服务,不会到达服务器端,减轻服务器端压力。
秒杀活动开始,为了支撑大量高并发的库存查验请求,由 Redis 保存库存,扣减库存。yin'ci 分布式缓存也选用 Redis。
7. 高可用(Plan B)
秒杀系统在大流量的冲击下,容易出现意外情况,为了保证系统的高可用,要有相应的保护措施,即 Plan B。
高可用-排队
收到秒杀请求后并不是立即处理,而是放到消息队列,系统根据能力进行异步处理。
队列的大小根据秒杀商品数量或多一些定义。
相比较限流来说,排队的客户端体验要更好一些。
评论