写点什么

转转千万级用户量消息推送系统的架构演进之路

作者:JackJiang
  • 2025-07-24
    江苏
  • 本文字数:2932 字

    阅读完需:约 10 分钟

转转千万级用户量消息推送系统的架构演进之路

本文由转转平台业务负责人王计宽分享,原题“转转 push 系统的演进之路”,下文有修订和重新排版。

1、引言

顾名思义,push 就是就是借助厂商通道把消息发送给用户的一种方式,一般用于用户的召回和活动触达,和即时通讯 IM 在业务上稍有区别,但技术逻辑上是相通的,不在此处赘述。

本文将从 0 开始讲讲转转千万级用户量消息推送系统的架构演进和迭代过程,以及遇到的常见问题的解法,希望能带给你启发。

2、术语解释

以下是本文涉及到的一些技术术语的解释:

  • 1)业务属性:运营、业务、功能类推送;

  • 2)推送范围: 月活、全量、定向推送、个性化推送;

  • 3)目标端:一般是安卓、ios 客户端;

  • 4)通道:小米、华为、魅族、apns 等手机厂商的常驻连接;

  • 5)token: 用于设备的唯一标识,由 APP 本身生成;

  • 6)devicetoken:用于推送的唯一标识,一般由厂商提供;

  • 7)推送量:推送消息的数量;

  • 8)到达率:消息到达手机的数量/推送量;

  • 9)点击率:用户点击量/推送量。

3、当前架构概览

现有的架构支持后台推送、业务推送以及个性化推荐推送。

以下是相关推送业务的特点:

  • 1)后台推送:一般会有标准的格式,特点是时间短、推送量大,比如 8 点秒杀活动;

  • 2)业务推送 :一般都是业务触发,特点是实时性强、优先级高,如订单支付消息;

  • 3)个性化推送:经常会和用户画像相关,特点是策略复杂、内容多样,需要有风控管理,如猜你喜欢等推荐策略。

4、技术背景——PM 想推送运营活动

步骤:

  • 1)PM 从大数据平台上导出一部分用户集合;

  • 2)RD 写程序调用 push 接口。

问题:

  • 1)N 个 PM 都有需求,RD..........;

  • 2)8 点有一个突发情况,9 点来一波;

  • 3)每周末都要活动,推送。

解决方案:

  • 1)搭建一个后台,支持根据用户 ID 上传,解放开发资源;

  • 2)支持按照时间推送,支持文案可配;

  • 3)支持安卓、IOS 分端推送。

遗留的问题:PM 上传了一个浏览过手机类目用户的数据集合,数据量太大,上传超时。PS:用户量大概在 1000w 左右+,大约 300M 左右的文件。

提示:

  • 1)上传的时间大约在 1 分钟左右, 需要联系运维设置最长的链接时间,否则 nginx 会主动断开;

  • 2)上传由同步上传,改成进度条的方式,让上传者可以看到进度;

  • 3)上传和数据处理分开(我们当时是边上传,边解析文件比较慢)。

5、希望重大节日能够即时通知到活跃用户

5.1 实时推

问题描述:重大节日,推送全量用户、月活、周活数据,每次仅是文案不同,PM 都需要跑大数据系统,效率太低,当天数据不可获得,平均推送需要 1 个多小时。

要求:

  • 1)1 亿的数据能够在一小时内推送完毕;

  • 2)要覆盖到某一个周期内的用户(比如一个月);

  • 3)支持预览,支持暂停。

分析-数据量(以 2000w 月活为例):

  • 1) 全量用户认定为近 3 个月(90 天)内访问过转转的用户;

  • 2) 预估所有设备数量在 5000w 左右;

  • 3) 预计占用的空间为 5G。

分析-性能(以 2000w 月活为例):

  • 1) 老系统 push 的平均 QPS 是 2000;

  • 2) 2000W/2000/60/2=83~=1 小时 20 分钟,希望能够在 12 分钟内推送完毕(一个小时推送 1 亿的指标)。

难点分析:

  • 1) 数据做到准实时,怎么算准实时;

  • 2)2000 千万的数据 12 分钟内推送完毕,QPS~=2.7w, 如何让性能提升 13.5 倍(2k 提升到 2.7w 的并发)。

解决方案:

  • 1) 数据的准实时:实时接收 kafka 日志消息,每分钟把清洗的数据进行合并;

  • 2)需要存储的数据要素:用户的 token 信息(注意不是 devicetoken);此 token 的活跃时间(时间戳);

  • 3)用户数据存储选型。

最终选择 redis 的 zset 进行存储。

5.2 如何提高发送性能

首先分析之前之所以慢的原因:

  • 1) 单线程发送;

  • 2) 受到厂商通道的限制,单接口耗时 100ms+(IOS 通道)。

解决方案:

  • 1)区分安卓、IOS 单独发送,原始程序只负责从 redis 拿到数据后拼装成固定结构(简单拼接操作速度很快);

  • 2)把数据推送到 MQ 中(可以不用 MQ 吗?);

  • 3)多个消费订阅者,进行消费(容易扩展),通过厂商 通道推送出去。

注意:iOS 通道,我们用的 pushy 开源工具,特定情况下无法持续推送消息,需要定时检查,重新创建通道。

最后的效果:push 推送的 QPS 达到 3w+,推送能力提升的同时,也引发了以下问题。

5.3 业务服务器扛不住瞬时流量

问题描述:当 push 的推送能力上去了之后, 用户的瞬时访问问题随之而来

  • 1)瞬时的流量高峰,导致超时增多;

  • 2)部分请求到达性能瓶颈,超时增多,页面打不开~,见下图。

push 落地效果:

解决办法:

  • 1)最简单的办法:加机器;

  • 2)业务接口多线程、服务治理,消峰(ratelimit);

  • 3)app 核心功能增加缓存,保证不会出现白屏的情况;

  • 4)减少活动路径。(一般 push 都会落地到某一个活动页面。但是正常打开 push,都会先进入首页,在跳转到活动页面。给 push 的消息增加特殊埋点,如果是此类 push 消息,就直接 跳转到特定页面,减少中间环节。)

6、AB 实验室

问题描述:有一天晚上 9 点推送了一个运营类的 push,发现居然点击率超级高,是文案优秀?还是流量高峰?

要求:存在多个推送文案,系统能够择优选择点击率最好的进行推送?

解决方式:加入 AB 测的能力,先进行少量用户推送,根据 AB 的效果,择优推送.

7、整合全部手机厂商级 ROOM 推送通道

新的问题:之前安卓的通道我们仅有小米通道+个推(个推达到率一般,做托底), 如果我们向华为手机推送消息,也是通过小米通道是很难到达的。

要求:

  • 1)希望能够把大厂的厂商通道都接进来;

  • 2)推送的消息能够根据用户最后登录的通道进行优化推送;

  • 3)速度不能慢下来。

解决方式:

  • 1) 搭建 tokens 服务,能够批量判定 devicetoken 的最后使用的厂商(需要依赖转转客户端上报);

  • 2) 分库分表的方式进行存储;

  • 3) 数据热备到缓存中。

效果:当年统计能够提高 10%的达到率。

8、消息送达监控

一般的监控维度包含:

  • 1)产品线:转转、找靓机等等;

  • 2)客户端:安卓、IOS;

  • 3)指标:发送、到达、点击的数量和比例;

  • 4)数据对比:模板、周期;

  • 5)通道:小米、华为、vivo、apns。

9、 本文小结

现状:

  • 1) 推送月活 10 分钟;

  • 2) 支持暂停、预览,实时查看推送数据量;

  • 3) 支持提前 AB 看效果;

  • 4) 支持不在线,微信通知;

  • 5) 支持防打扰;

  • 6) 支持优先级和厂商高优通道。

提高速度:预加载+缓存+多线程+合理的数据结构+批量处理+合理布局+特殊埋点。

折中方案:异步上传、限流控制、降级处理、分层解耦、补偿通知。(本文已同步发布于:http://www.52im.net/thread-4852-1-1.html

10、 参考资料

[1] 极光推送系统大规模高并发架构的技术实践分享

[2] 魅族 2500 万长连接的实时消息推送架构的技术实践分享

[3] 专访魅族架构师:海量长连接的实时消息推送系统的心得体会

[4] 基于 WebSocket 实现 Hybrid 移动应用的消息推送实践(含代码示例)

[5] 一个基于长连接的安全可扩展的订阅/推送服务实现思路

[6] 实践分享:如何构建一套高可用的移动端消息推送系统?

[7] Go 语言构建千万级在线的高并发消息推送系统实践(来自 360 公司)

[8] 腾讯信鸽技术分享:百亿级实时消息推送的实战经验

[9] 京东京麦商家开放平台的消息推送架构演进之路

[10] 技术干货:从零开始,教你设计一个百万级的消息推送系统

[11] 爱奇艺 WebSocket 实时推送网关技术实践

[12] 喜马拉雅亿级用户量的离线消息推送系统架构设计实践

[13] 消息推送技术干货:美团实时消息推送服务的技术演进之路

[14] 揭秘 vivo 百亿级厂商消息推送平台的高可用技术实践

[15] 得物从零构建亿级消息推送系统的送达稳定性监控体系技术实践

[16] B 站千万级长连接实时消息系统的架构设计与实践


用户头像

JackJiang

关注

还未添加个人签名 2019-08-26 加入

开源IM框架MobileIMSDK、BeautyEye的作者。

评论

发布
暂无评论
转转千万级用户量消息推送系统的架构演进之路_网络编程_JackJiang_InfoQ写作社区