微信小游戏直播在 Android 端的跨进程渲染推流实践
本文由微信开发团队工程师“virwu”分享。
1、引言
近期,微信小游戏支持了视频号一键开播,将微信升级到最新版本,打开腾讯系小游戏(如跳一跳、欢乐斗地主等),在右上角菜单就可以看到发起直播的按钮一键成为游戏主播了(如下图所示)。
然而微信小游戏出于性能和安全等一系列考虑,运行在一个独立的进程中,在该环境中不会初始化视频号直播相关的模块。这就意味着小游戏的音视频数据必须跨进程传输到主进程进行推流,给我们实现小游戏直播带来了一系列挑战。
(本文同步发布于:http://www.52im.net/thread-3594-1-1.html)
2、系列文章
本文是系列文章中的第 5 篇:
《直播系统聊天技术(一):百万在线的美拍直播弹幕系统的实时推送技术实践之路》
《直播系统聊天技术(二):阿里电商IM消息平台,在群聊、直播场景下的技术实践》
《直播系统聊天技术(三):微信直播聊天室单房间1500万在线的消息架构演进之路》
3、视频采集推流
3.1 录屏采集?
小游戏直播本质上就是把主播手机屏幕上的内容展示给观众,自然而然地我们可以想到采用系统的录屏接口 MediaProjection 进行视频数据的采集。
这种方案有这些优点:
1)系统接口,实现简单,兼容性和稳定性有一定保证;
2)后期可以扩展成通用的录屏直播;
3)对游戏性能影响较小,经测试对帧率影响在 10%以内;
4)可以直接在主进程进行数据处理及推流,不用处理小游戏跨进程的问题。
但是最终这个方案被否决了,主要出于以下考虑:
1)需要展示系统授权弹窗;
2)需要谨慎处理切出小游戏后暂停画面推流的情况,否则可能录制到主播的其他界面,有隐私风险;
3)最关键的一点:产品设计上需要在小游戏上展示一个评论挂件(如下图),便于主播查看直播评论以及进行互动,录屏直播会让观众也看到这个组件,影响观看体验的同时会暴露一些只有主播才能看到的数据。
转念一想,既然小游戏的渲染完全是由我们控制的,为了更好的直播体验,能否将小游戏渲染的内容跨进程传输到主进程来进行推流呢?
3.2 小游戏渲染架构
为了更好地描述我们采用的方案,这里先简单介绍一下小游戏的渲染架构:
可以看到图中左半边表示在前台的小游戏进程,其中 MagicBrush 为小游戏渲染引擎,它接收来自于小游戏代码的渲染指令调用,将画面渲染到在屏的 SurfaceView 提供的 Surface 上。整个过程主进程在后台不参与。
3.3 小游戏录屏时的情况
小游戏之前支持过游戏内容的录制,和直播原理上类似,都需要获取当前小游戏的画面内容。
录屏启用时小游戏会切换到如下的模式进行渲染:
可以看到,MagicBrush 的输出目标不再是在屏的 SurfaceView,而是 Renderer 产生的一个 SurfaceTexture。
这里先介绍一下 Renderer 的作用:
Renderer 是一个独立的渲染模块,表示一个独立的 GL 环境,它可以创建 SurfaceTexture 作为输入,收到 SurfaceTexture 的 onFrameAvailable 回调后通过 updateTexImage 方法将图像数据转换为类型是 GL_TEXTURE_EXTERNAL_OES 的纹理参与后续的渲染过程,并可以将渲染结果输出到另一个 Surface 上。
下面逐步对图中过程进行解释:
1)MagicBrush 接收来自小游戏代码的渲染指令调用,将小游戏内容渲染到第一个 Renderer 所创建的 SurfaceTexture 上;
2)随后这个 Renderer 做了两件事情:
2.1)将得到的小游戏画面纹理再次渲染到了在屏的 Surface 上;
2.2)提供纹理 ID 给到第二个 Renderer(这里两个 Renderer 通过共享 GLContext 来实现共享纹理)。
3)第二个 Renderer 将第一个 Renderer 提供的纹理渲染到 mp4 编码器提供的输入 SurfaceTexture 上,最终编码器编码产生 mp4 录屏文件。
3.4 改造录屏方案?
可以看到,录屏方案中通过一个 Renderer 负责将游戏内容上屏,另一个 Renderer 将同样的纹理渲染到编码器上的方式实现了录制游戏内容,直播其实类似,是不是只要将编码器替换为直播的推流模块就可以了呢?
确实如此,但还缺少关键的一环:推流模块运行在主进程,我们需要实现跨进程传输图像数据!如何跨进程呢?
说到跨进程:可能我们脑海里蹦出的第一反应就是 Binder、Socket、共享内存等等传统的 IPC 通信方法。但仔细一想,系统提供的 SurfaceView 是非常特殊的一个 View 组件,它不经过传统的 View 树来参与绘制,而是直接经由系统的 SurfaceFlinger 来合成到屏幕上,而 SurfaceFlinger 运行在系统进程上,我们绘制在 SurfaceView 所提供的 Surface 上的内容必然是可以跨进程进行传输的,而 Surface 跨进程的方法很简单——它本身就实现了 Parcelable 接口,这意味着我们可以用 Binder 直接跨进程传输 Surface 对象。
于是我们有了下面这个初步方案:
可以看到:第 3 步不再是渲染到 mp4 编码器上,而是渲染到主进程跨进程传输过来的 Surface 上,主进程的这个 Surface 是通过一个 Renderer 创建的 SurfaceTexture 包装而来的,现在小游戏进程作为生产者向这个 Surface 渲染画面。当一帧渲染完毕后,主进程的 SurfaceTexture 就会收到 onFrameAvailable 回调通知图像数据已经准备完毕,随之通过 updateTexImage 获取到对应的纹理数据,这里由于直播推流模块只支持 GL_TEXTURE_2D 类型的纹理,这里主进程 Renderer 会将 GL_TEXTURE_EXTERNAL_OES 转换为 GL_TEXTURE_2D 纹理后给到直播推流编码器,完成推流过程。
经过一番改造:上述方案成功地实现了将小游戏渲染在屏幕上的同时传递给主进程进行推流,但这真的是最优的方案吗?
思考一番,发现上述方案中的 Renderer 过多了,小游戏进程中存在两个,一个用于渲染上屏,一个用于渲染到跨进程而来的 Surface 上,主进程中还存在一个用于转换纹理以及调用推流模块。如果要同时支持录屏,还需要在小游戏进程再起一个 Renderer 用于渲染到 mp4 编码器,过多的 Renderer 意味着过多的额外渲染开销,会影响小游戏运行性能。
3.5 跨进程渲染方案
纵观整个流程,其实只有主进程的 Renderer 是必要的,小游戏所使用的额外 Render 无非就是想同时满足渲染上屏和跨进程传输,让我们大开脑洞——既然 Surface 本身就不受进程的约束,那我们干脆把小游戏进程的在屏 Surface 传递到主进程进行渲染上屏吧!
最终我们大刀阔斧地砍掉了小游戏进程的两个冗余 Renderer,MagicBrush 直接渲染到了跨进程传递而来的 Surface 上,而主进程的 Renderer 在负责纹理类型转换的同时也负责将纹理渲染到跨进程传递而来的小游戏进程的在屏 Surface 上,实现画面的渲染上屏。
最终所需要的 Renderer 数量从原来的 3 个减少到了必要的 1 个,在架构更加清晰的同时提升了性能。
后续需要同时支持录屏时,只要稍作改动,将 mp4 编码器的输入 SurfaceTexture 也跨进程传递到主进程,再新增一个 Renderer 渲染纹理到它上面就行了(如下图所示)。
3.6 兼容性与性能
到这里,不禁有点担心,跨进程传输和渲染 Surface 的这套方案的兼容性会不会有问题呢?
实际上,虽然并不常见,但是官方文档里面是有说明可以跨进程进行绘制的:
SurfaceView combines a surface and a view. SurfaceView's view components are composited by SurfaceFlinger (and not the app), enabling rendering from a separate thread/process and isolation from app UI rendering.
并且 Chrome 以及 Android O 以后的系统 WebView 都有使用跨进程渲染的方案。
在我们的兼容性测试中,覆盖了 Android 5.1 及以后的各个主流系统版本和机型,除了 Android 5.x 机型上出现了跨进程渲染黑屏的问题外,其余均可以正常渲染上屏和推流。
性能方面:我们使用了 WebGL 水族馆的 Demo 进行了性能测试,可以看到对于平均帧率的影响在 15%左右,主进程的 CPU 因为渲染和推流有所升高,奇怪的是小游戏进程的 CPU 开销却出现了一些下降,这里下降的原因暂时还没有确认,怀疑与上屏操作移到主进程相关,也不排除是统计方法的影响。
3.7 小结一下
为了实现不录制主播端的评论挂件,我们从小游戏渲染流程入手,借助于 Surface 跨进程渲染和传输图像的能力,把小游戏渲染上屏的过程移到了主进程,并同时生成纹理进行推流,在兼容性和性能上达到了要求。
4、音频采集推流
4.1 方案选择
在音频采集方案中,我们注意到在 Android 10 及以上系统提供了 AudioPlaybackCapture 方案允许我们在一定的限制内对系统音频进行采集。当时预研的一些结论如下。
捕获方 - 进行捕获的条件:
1)Android 10(api 29)及以上;
2)获取了 RECORD_AUDIO 权限;
3)通过 MediaProjectionManager.createScreenCaptureIntent()进行 MediaProjection 权限的申请(和 MediaProjection 录屏共用);
4)通过 AudioPlaybackCaptureConfiguration.addMatchingUsage()/AudioPlaybackCaptureConfiguration.excludeUsage() 添加/排除要捕获的 MEDIA 类型;
5)通过 AudioPlaybackCaptureConfiguration.addMatchingUid() /AudioPlaybackCaptureConfiguration.excludeUid()添加/排除可以捕获的应用的 UID。
被捕获方 - 可以被捕获的条件:
1)Player 的 AudioAttributes 设置的 Usage 为 USAGE_UNKNOWN,USAGE_GAME 或 USAGE_MEDIA(目前绝大部分用的都是默认值,可以被捕获);
2)应用的 CapturePolicy 被设置为 AudioAttributes#ALLOW_CAPTURE_BY_ALL,有三种办法可以设置(以最严格的为准,目前微信内没有配置,默认为可以捕获);
3)通过 manifest.xml 设置 android:allowAudioPlaybackCapture="true",其中,TargetApi 为 29 及以上的应用默认为 true,否则为 false;
4)api 29 及以上可以通过 setAllowedCapturePolicy 方法运行时设置;
5)api 29 及以上可以通过 AudioAttributes 针对每一个 Player 单独设置。
总的来说:Android 10 及以上可以使用 AudioPlaybackCapture 方案进行音频捕获,但考虑到 Android 10 这个系统版本限制过高,最终我们选择了自己来采集并混合小游戏内播放的所有音频。
4.2 跨进程音频数据传输
现在,老问题又摆在了我们眼前:小游戏混合后的音频数据在小游戏进程,而我们需要把数据传输到主进程进行推流。
与一般的 IPC 跨进程通信用于方法调用不同:在这个场景下,我们需要频繁地(40 毫秒一次)传输较大的数据块(16 毫秒内的数据量在 8k 左右)。
同时:由于直播的特性,这个跨进程传输过程的延迟需要尽可能地低,否则就会出现音画不同步的情况。
为了达到上述目标:我们对 Binder、LocalSocket、MMKV、SharedMemory、Pipe 这几种 IPC 方案进行了测试。在搭建的测试环境中,我们在小游戏进程模拟真实的音频传输的过程,每隔 16 毫秒发送一次序列化后的数据对象,数据对象大小分为 3k/4M/10M 三挡,在发送前储存时间戳在对象中;在主进程中接收到数据并完成反序列化为数据对象的时刻作为结束时间,计算传输延迟。
最终得到了如下结果:
注:其中 XIPCInvoker(Binder)和 MMKV 在传输较大数据量时耗时过长,不在结果中展示。
对于各个方案的分析如下(卡顿率表示延迟>2 倍平均延迟且>10 毫秒的数据占总数的比例):
可以看到:LocalSocket 方案在各个情况下的传输延迟表现都极为优异。差异的原因主要是因为裸二进制数据在跨进程传输到主进程后,仍需要进行一次数据拷贝操作来反序列化为数据对象,而使用 LocalSocket 时可以借助于 ObjectStream 和 Serializeable 来实现流式的拷贝,相比与其他方案的一次性接收数据后再拷贝节约了大量的时间(当然其他方案也可以设计成分块流式传输同时拷贝,但实现起来有一定成本,不如 ObjectStream 稳定易用)。
我们也对 LocalSocket 进行了兼容性与性能测试,未出现不能传输或断开连接的情况,仅在三星 S6 上平均延迟超过了 10 毫秒,其余机型延迟均在 1 毫秒左右,可以满足我们的预期。
4.3 LocalSocket 的安全性
常用的 Binder 的跨进程安全性有系统实现的鉴权机制来保证,LocalSocket 作为 Unix domain socket 的封装,我们必须考虑它的安全性问题。
论文《The Misuse of Android Unix Domain Sockets and Security Implications》较为详细地分析了 Android 中使用 LocalSocket 所带来的安全风险。
PS:论文原文附件下载(请从此链接的 4.3 节处下载:http://www.52im.net/thread-3594-1-1.html)
总结论文所述:由于 LocalSocket 本身缺乏鉴权机制,任意一个应用都可以进行连接,从而截取到数据或是向接收端传递非法数据引发异常。
针对这个特点,我们可以做的防御方法有两种:
1)随机化 LocalSocket 的命名,例如使用当前直播的小游戏的 AppId 和用户 uin 等信息计算 md5 作为 LocalSocket 的名字,使得攻击者无法通过固定或穷举名字的方法尝试建立连接;
2)引入鉴权机制,在连接成功后发送特定的随机信息来验证对方的真实性,然后才启动真正的数据传输。
4.4 小结一下
为了兼容 Android 10 以下的机型也能直播,我们选择自己处理小游戏音频的采集,并通过对比评测,选用了 LocalSocket 作为跨进程音频数据传输的方案,在延迟上满足了直播的需求。
同时,通过一些对抗措施,可以有效规避 LocalSocket 的安全风险。
5、多进程带来的问题
回头来看,虽然整个方案看起来比较通顺,但是在实现的过程中还是由于多进程的原因踩过不少坑,下面就分享其中两个比较主要的。
5.1 glFinish 造成渲染推流帧率严重下降
在刚实现跨进程渲染推流的方案后,我们进行了一轮性能与兼容性测试,在测试中发现,部分中低端机型上帧率下降非常严重(如下图所示)。
复现后查看小游戏进程渲染的帧率(即小游戏进程绘制到跨进程而来的 Surface 上的帧率)发现可以达到不开直播时的帧率。
而我们所用的测试软件 PerfDog 所记录的是在屏 Surface 的绘制帧率,这就说明性能下降不是直播开销过高引起的小游戏代码执行效率下降,而是主进程上屏 Renderer 效率太低。
于是我们对主进程直播时运行效率进行了 Profile,发现耗时函数为 glFinish。
并且有两次调用:
1)第一次调用是 Renderer 将外部纹理转 2D 纹理时,耗时会达到 100 多毫秒;
2)第二次调用是腾讯云直播 SDK 内部,耗时 10 毫秒以内。
如果将第一次调用去掉,直播 SDK 内部的这次则会耗时 100 多毫秒。
为了弄清为什么这个 GL 指令耗时这么久,我们先看看它的描述:
glFinish does not return until the effects of all previously called GL commands are complete.
描述很简单:它会阻塞直到之前调用的所有 GL 指令全部完成。
这么看来是之前的 GL 指令太多了?但是 GL 指令队列是以线程为维度隔离的,在主进程的 Renderer 线程中,glFinish 前只会执行纹理类型转换的非常少量的 GL 指令,和腾讯云的同学了解到推流接口也不会在本线程执行很多 GL 指令,如此少量的 GL 指令怎么会使 glFinish 阻塞这么久呢?等等,大量 GL 指令?小游戏进程此时不就正在执行大量 GL 指令吗,难道是小游戏进程的大量 GL 指令导致了主进程的 glFinsih 耗时过长?
这样的猜测不无道理:虽然 GL 指令队列是按线程隔离的,但处理指令的 GPU 只有一个,一个进程的 GL 指令过多导致另一个进程在需要 glFinish 时阻塞过久。Google 了一圈没找到有相关的描述,需要自己验证这个猜测。
重新观察一遍上面的测试数据:发现直播前能达到 60 帧的情况下,直播后也能达到 60 帧左右,这是不是就说明在小游戏的 GPU 负载较低时 glFinish 的耗时也会下降呢?
在性能下降严重的机型上:控制其他变量不变尝试运行低负载的小游戏,发现 glFinsih 的耗时成功下降到了 10 毫秒左右,这就印证了上面的猜测——确实是小游戏进程正在执行的大量 GL 指令阻塞了主进程 glFinish 的执行。
该如何解决呢?小游戏进程的高负载无法改变,那能让小游戏在一帧渲染完成以后停住等主进程的 glFinish 完成后再渲染下一帧吗?
这里经过了各种尝试:OpenGL 的 glFence 同步机制无法跨进程使用;由于 GL 指令是异步执行的,通过跨进程通信加锁锁住小游戏的 GL 线程并不能保证主进程执行 glFinish 时小游戏进程的指令已经执行完,而能保证这点只有通过给小游戏进程加上 glFinish,但这会使得双缓冲机制失效,导致小游戏渲染帧率的大幅下降。
既然 glFinish 所带来的阻塞无法避免,那我们回到问题的开始:为什么需要 glFinish?由于双缓冲机制的存在,一般来说并不需要 glFinish 来等待之前的绘制完成,否则双缓冲就失去了意义。两次 glFinish 中,第一次纹理处理的调用可以直接去掉,第二次腾讯云 SDK 的调用经过沟通,发现是为了解决一个历史问题引入的,可以尝试去掉。在腾讯云同学的帮助下,去掉 glFinish 后,渲染的帧率终于和小游戏输出的帧率一致,经过兼容性和性能测试,没有发现去掉 glFinish 带来的问题。
这个问题最终的解法很简单:但分析问题原因的过程实际上做了非常多的实验,同一个应用中一个高 GPU 负载的进程会影响到另一个进程的 glFinish 耗时的这种场景确实也非常少见,能参考的资料不多。这个过程也让我深刻体会到了 glFinish 使得双缓冲机制失效所带来的性能影响是巨大的,在使用 OpenGL 进行渲染绘制时对于 glFinish 的使用应当非常谨慎。
5.2 后台进程优先级问题
在测试过程中:我们发现无论以多少的帧率向直播 SDK 发送画面,观众端看到的画面帧率始终只有 16 帧左右,排除后台原因后,发现是编码器编码的帧率不足导致的。经腾讯云同学测试同进程内编码的帧率是可以达到设定的 30 帧的,那么说明还是多进程带来的问题,这里编码是一个非常重的操作,需要消耗比较多的 CPU 资源,所以我们首先怀疑的就是后台进程优先级的问题。
为了确认问题:
1)我们找来了已经 root 的手机,通过 chrt 命令提高编码线程的优先级,观众端帧率立马上到了 25 帧;
2)另一方面,经测试如果在小游戏进程上显示一个主进程的浮窗(使主进程具有前台优先级),帧率可以上到 30 帧。
综上:可以确认帧率下降就是由于后台进程(以及其拥有的线程)的优先级过低导致的。
提高线程优先级的做法在微信里比较常见,例如:小程序的 JS 线程以及小游戏的渲染线程都会在运行时通过 android.os.Process.setThreadPriority 方法设置线程的优先级。腾讯云 SDK 的同学很快提供了接口供我们设置线程优先级,但当我们真正运行起来时,却发现编码的帧率仅从 16 帧提高到了 18 帧左右,是哪里出问题了呢?
前面提到:我们通过 chrt 命令设置线程优先级是有效的,但 android.os.Process.setThreadPriority 这个方法设置的线程优先级对应的是 renice 这个命令设置的 nice 值。仔细阅读 chrt 的 manual 后,发现之前测试时的理解有误,之前直接用 chrt -p [pid] [priority]的命令设置优先级,却没有设置调度策略这个参数,导致该线程的调度策略从 Linux 默认的 SCHED_OTHER 改为了命令缺省设置的 SCHED_RR,而 SCHED_RR 是一种“实时策略”,导致线程的调度优先级变得非常高。
实际上:通过 renice(也就是 android.os.Process.setThreadPriority)设置的线程优先级,对于后台进程所拥有线程来说没有太大的帮助。
其实早有人解释过这一点:
To address this, Android also uses Linux cgroups in a simple way to create more strict foreground vs. background scheduling. The foreground/default cgroup allows thread scheduling as normal. The background cgroup however applies a limit of only some small percent of the total CPU time being available to all threads in that cgroup. Thus if that percentage is 5% and you have 10 background threads all wanting to run and one foreground thread, the 10 background threads together can only take at most 5% of the available CPU cycles from the foreground. (Of course if no foreground thread wants to run, the background threads can use all of the available CPU cycles.)
关于线程优先级的设置,感兴趣的同学可以看看另一位大佬的文章:《Android的离奇陷阱 — 设置线程优先级导致的微信卡顿惨案》。
最终:为了提高编码帧率并防止后台主进程被杀,我们最终还是决定直播时在主进程创建一个前台 Service。
6、总结与展望
多进程是一把双刃剑,在给我们带来隔离性和性能优势的同时也带来了跨进程通信这一难题,所幸借助系统 Surface 的能力和多种多样的跨进程方案可以较好地解决小游戏直播中所遇到的问题。
当然:解决跨进程问题最好的方案是避免跨进程,我们也考虑了将视频号直播的推流模块运行在小游戏进程的方案,但出于改造成本的考虑而没有选择这一方案。
同时:这次对于 SurfaceView 跨进程渲染的实践也对其他业务有一定参考价值——对于一些内存压力较大或是安全风险较高,又需要进行 SurfaceView 渲染绘制的场景,可以把逻辑放到独立的进程,再通过跨进程渲染的方式绘制到主进程的 View 上,在获得独立进程优势的同时又避免了进程间跳转所带来的体验的割裂。
附录 1:有关直播技术的文章汇总
《理论联系实际:实现一个简单地基于html]5的实时视频直播》
《实时视频直播客户端技术盘点:Native、html]5、WebRTC、微信小程序》
《七牛云技术分享:使用QUIC协议实现实时视频直播0卡顿!》
《首次披露:快手是如何做到百万观众同场看直播仍能秒开且不卡顿的?》
《技术揭秘:支持百万级粉丝互动的Facebook实时视频直播》
《实现延迟低于500毫秒的1080P实时音视频直播的实践分享》
《直播系统聊天技术(一):百万在线的美拍直播弹幕系统的实时推送技术实践之路》
《直播系统聊天技术(二)阿里电商IM消息平台,在群聊、直播场景下的技术实践》
《直播系统聊天技术(三):微信直播聊天室单房间1500万在线的消息架构演进之路》
《直播系统聊天技术(四):百度直播的海量用户实时消息系统架构演进实践》
《直播系统聊天技术(五):微信小游戏直播在Android端的跨进程渲染推流实践》
《海量实时消息的视频直播系统架构演进之路(视频+PPT)[附件下载]》
《YY直播在移动弱网环境下的深度优化实践分享(视频+PPT)[附件下载]》
《从0到1:万人在线的实时音视频直播技术实践分享(视频+PPT) [附件下载]》
《在线音视频直播室服务端架构最佳实践(视频+PPT) [附件下载]》
>> 更多同类文章 ……
附录 2:微信团队分享的技术文章汇总
《微信团队分享:iOS版微信的高性能通用key-value组件技术实践》
《微信团队分享:iOS版微信是如何防止特殊字符导致的炸群、APP崩溃的?》
《微信团队分享:微信Android版小视频编码填过的那些坑》
《微信团队披露:微信界面卡死超级bug“15。。。。”的来龙去脉》
《月活8.89亿的超级IM微信是如何进行Android端兼容测试的》
《微信客户端团队负责人技术访谈:如何着手客户端性能监控和优化》
《微信团队原创分享:Android版微信的臃肿之困与模块化实践之路》
《微信团队原创分享:微信客户端SQLite数据库损坏修复实践》
《如约而至:微信自用的移动端IM网络层跨平台组件库Mars已正式开源》
《开源libco库:单机千万连接、支撑微信8亿用户的后台框架基石 [源码下载]》
《微信新一代通信安全解决方案:基于TLS1.3的MMTLS详解》
《微信团队原创分享:Android版微信后台保活实战分享(进程保活篇)》
《微信团队原创分享:Android版微信后台保活实战分享(网络保活篇)》
《Android版微信从300KB到30MB的技术演进(PPT讲稿) [附件下载]》
《微信团队原创分享:Android版微信从300KB到30MB的技术演进》
《微信技术总监谈架构:微信之道——大道至简(PPT讲稿) [附件下载]》
《微信海量用户背后的后台系统存储架构(视频+PPT) [附件下载]》
《微信异步化改造实践:8亿月活、单机千万连接背后的后台解决方案》
《架构之道:3个程序员成就微信朋友圈日均10亿发布量[有视频]》
《微信团队原创分享:Android内存泄漏监控和优化技巧总结》
《微信团队原创Android资源混淆工具:AndResGuard [有源码]》
《移动端IM实践:Android版微信如何大幅提升交互性能(一)》
《移动端IM实践:Android版微信如何大幅提升交互性能(二)》
《移动端IM实践:WhatsApp、Line、微信的心跳策略分析》
《移动端IM实践:谷歌消息推送服务(GCM)研究(来自微信)》
《微信多媒体团队访谈:音视频开发的学习、微信的音视频技术和挑战等》
《腾讯资深架构师干货总结:一文读懂大型分布式系统设计的方方面面》
《腾讯音视频实验室:使用AI黑科技实现超低码率的高清实时视频聊天》
《腾讯技术分享:微信小程序音视频与WebRTC互通的技术思路和实践》
《手把手教你读取Android版微信和手Q的聊天记录(仅作技术研究学习)》
《微信技术分享:微信的海量IM聊天消息序列号生成实践(算法原理篇)》
《微信技术分享:微信的海量IM聊天消息序列号生成实践(容灾方案篇)》
《腾讯技术分享:GIF动图技术详解及手机QQ动态表情压缩技术实践》
《微信团队分享:Kotlin渐被认可,Android版微信的技术尝鲜之旅》
《社交软件红包技术解密(二):解密微信摇一摇红包从0到1的技术演进》
《社交软件红包技术解密(三):微信摇一摇红包雨背后的技术细节》
《社交软件红包技术解密(四):微信红包系统是如何应对高并发的》
《社交软件红包技术解密(五):微信红包系统是如何实现高可用性的》
《社交软件红包技术解密(六):微信红包系统的存储层架构演进实践》
《社交软件红包技术解密(十一):解密微信红包随机算法(含代码实现)》
《微信团队分享:极致优化,iOS版微信编译速度3倍提升的实践总结》
《IM“扫一扫”功能很好做?看看微信“扫一扫识物”的完整技术实现》
《微信团队分享:微信支付代码重构带来的移动端软件架构上的思考》
《IM开发宝典:史上最全,微信各种功能参数和逻辑规则资料汇总》
《微信团队分享:微信直播聊天室单房间1500万在线的消息架构演进之路》
>> 更多同类文章 ……
(本文同步发布于:http://www.52im.net/thread-3594-1-1.html)
评论