长连接 Netty 服务内存泄漏,看我如何一步步捉“虫”解决 | 京东云技术团队
作者:京东科技 王长春
背景
事情要回顾到双 11.11 备战前夕,在那个风雨交加的夜晚,一个急促的咚咚报警,惊破了电闪雷鸣的黑夜,将沉浸在梦香,熟睡的我惊醒。
一看手机咚咚报警,不好!有大事发生了!电话马上打给老板:
老板说: 长连接吗?
我说:是的!
老板说:该来的还是要来的,最终还是来了,快,赶紧先把服务重启下!
我说:已经重启了!
老板说: 这问题必须给我解决了!
我说:必须的!
线上应用长连接 Netty 服务出现内存泄漏了!真让人头大
在这风雨交加的夜晚,此时,面对毫无头绪的问题,以及迫切想攻克问题的心,已经让我兴奋不已,手一把揉揉刚还迷糊的眼,今晚又注定是一个不眠之夜!
应用介绍
说起支付业务的长连接服务,真是说来话长,我们这就长话短说:
随着业务及系统架构的复杂化,一些场景,用户操作无法同步得到结果。一般采用的短连接轮训的策略,客户端需要不停的发起请求,时效性较差还浪费服务器资源。
短轮训痛点:
时效性差
耗费服务器性能
建立、关闭链接频繁
相比于短连接轮训策略,长连接服务可做到实时推送数据,并且在一个链接保持期间可进行多次数据推送。服务应用常见场景:PC 端扫码支付,用户打开扫码支付页面,手机扫码完成支付,页面实时展示支付成功信息,提供良好的用户体验。
长连服务优势:
时效性高提升用户体验
减少链接建立次数
一次链接多次推送数据
提高系统吞吐量
这个长连接服务使用Netty
框架,Netty
的高性能为这个应用带来了无上的荣光,承接了众多长连接使用场景的业务:
PC 收银台微信支付
声波红包
POS 线下扫码支付
问题现象
回到线上问题,出现内存泄漏的是长连接前置服务,观察线上服务,这个应用的内存泄漏的现象总伴随着内存的增长,这个增长真是非常的缓慢,缓慢,缓慢,2、3 个月内从 30%慢慢增长到 70%,极难发现:
每次发生内存泄漏,内存快耗尽时,总得重启下,虽说重启是最快解决的方法,但是程序员是天生懒惰的,要数着日子来重启,那绝对不是一个优秀程序员的行为!问题必须彻底解决!
问题排查与复现
排查
遇到问题,毫无头绪,首先还是需要去案发第一现场,排查“死者(应用实例)”死亡现场,通过在发生 FullGC 的时间点,通过 Digger 查询ERROR
日志,没想到还真找到破案的第一线索:
线上日志竟然有一个明显的"LEAK"
泄漏字样,作为技术人的敏锐的技术嗅觉,和找 Bug 的直觉,可以确认,这就是事故案发第一现场。
我们凭借下大学四六级英文水平的,继续翻译下线索,原来是这呐!
ByteBuf.release() 在垃圾回收之前没有被调用。启用高级泄漏报告以找出泄漏发生的位置。要启用高级泄漏报告,请指定 JVM 选项“-Dio.netty.leakDetectionLevel=advanced”或调用 ResourceLeakDetector.setLevel()
啊哈!这信息不就是说了嘛!ByteBuf.release()
在垃圾回收前没有调用,有ByteBuf
对象没有被释放,ByteBuf
可是分配在直接内存的,没有被释放,那就意味着堆外内存泄漏,所以内存一直是非常缓慢的增长,GC 都不能够进行释放。
提供了这个线索,那到底是我们应用中哪段代码出现了ByteBuf
对象的内存泄漏呢?
项目这么大,Netty 通信处理那么多,怎么找呢?自己从中搜索,那肯定是不靠谱,找到了又怎么释放呢?
复现
面对这一连三问?别着急,Netty 的日志提示还是非常完善:启用高级泄漏报告找出泄漏发生位置嘛,生产上不可能启用,并且生产发生时间极长,时间上来不及,而且未经验证,不能直接生产发布,那就本地代码复现一下!找到具体代码位置。
为了本地复现Netty
泄漏,定位详细的内存泄漏代码,我们需要做这几步:
1、配置足够小的本地 JVM 内存,以便快速模拟堆外内存泄漏。
如图,我们设置设置 PermSize=30M, MaxPermSize=43M
2、模拟足够多的长连接请求,我们使用 Postman 定时批量发请求,以达到服务的堆外内存泄漏。
启动项目,通过JProfiler
JVM 监控工具,我们观察到内存缓慢的增长,最终触发了本地Netty
的堆外内存泄漏,本地复现成功:
_那问题具体出现在代码中哪块呢?_我们最重要的是定位具体代码,在开启了Netty
的高级内存泄漏级别为高级,来定位下:
3、开启Netty
的高级内存泄漏检测级别,JVM 参数如下:
-Dio.netty.leakDetectionLevel=advanced
再启动项目,模拟请求,达到本地应用 JVM 内存泄漏,Netty 输出如下具体日志信息,可以看到,具体的日志信息比之前的信息更加完善:
开启高级的泄漏检测级别后,通过上面异常日志,我们可以看到内存泄漏的具体地方:com.jd.jr.keeplive.front.service.nettyServer.handler.LongRotationServerHandler.getClientMassageInfo(LongRotationServerHandler.java:169)
不得不说Netty
内存泄漏排查这点是真香!真香好评!
问题解决
找到问题了,那我么就需要解决,如何释放ByteBuf
内存呢?
如何回收泄漏的 ByteBuf
其实Netty
官方也针对这个问题做了专门的讨论,一般的经验法则是,最后访问引用计数对象的一方负责销毁该引用计数对象,具体来说:
如果一个[发送]组件将一个引用计数的对象传递给另一个[接收]组件,则发送组件通常不需要销毁它,而是由接收组件进行销毁。
如果一个组件使用了一个引用计数的对象,并且知道没有其他对象将再访问它(即,不会将引用传递给另一个组件),则该组件应该销毁它。
详情请看翻译的 Netty 官方文档对引用计数的功能使用:
总结起来主要三个方式:
方式一:手动释放,哪里使用了,使用完就手动释放。
方式二:升级ChannelHandler
为SimpleChannelHandler
, 在SimpleChannelHandler
中,Netty
对收到的所有消息都调用了ReferenceCountUtil.release(msg)
。
方式三:如果处理过程中不确定ByteBuf
是否应该被释放,那交给 Netty 的ReferenceCountUtil.release(msg)
来释放,这个方法会判断上下文是否可以释放。
考虑到长连接前置应用使用的是ChannelHandler
,如果升级SimpleChannelHandler
对现有 API 接口变动比较大,同时如果手动释放,不确定是否应该释放风险也大,因此使用方式三,如下:
线上实例内存正常
问题修复后,线上服务正常,内存使用率也没有再出现因泄漏而增长,从线上我们增加的日志中看出,FullHttpRequest
中ByteBuf
内存释放成功。从此长连接前置内存泄漏的问题彻底解决。
总结
一、Netty 的内存泄漏排查其实并不难,Netty 提供了比较完整的排查内存泄漏工具
JVM 选项-Dio.netty.leakDetection.level
目前有 4 个泄漏检测级别的:
DISABLED - 完全禁用泄漏检测。不推荐。
SIMPLE - 抽样 1% 的缓冲区是否有泄漏。默认。
ADVANCED - 抽样 1% 的缓冲区是否泄漏,以及能定位到缓冲区泄漏的代码位置。
PARANOID - 与 ADVANCED 相同,只是它适用于每个缓冲区,适用于自动化测试阶段。如果生成输出包含“LEAK:”,则可能会使生成失败。
本次内存泄漏问题,我们通过本地设置泄漏检测级别为高级,即:-Dio.netty.leakDetectionLevel=advanced
定位到了具体内存泄漏的代码。
同时 Netty 也给出了避免泄漏的最佳实践:
在 PARANOID 泄漏检测级别以及 SIMPLE 级别运行单元测试和集成测试。
在 SIMPLE 级别向整个集群推出应用程序之前,请先在相当长的时间内查看是否存在泄漏。
如果有泄漏,灰度发布中使用 ADVANCED 级别,以获得有关泄漏来源的一些提示。
不要将泄漏的应用程序部署到整个群集。
二、解决 Netty 内存泄漏,Netty 也提供了指导方案,主要有三种方式
方式一:手动释放,哪里使用了,使用完就手动释放,这个对使用方要求比较高了。
方式二:如果处理过程中不确定ByteBuf
是否应该被释放,那交给Netty
的ReferenceCountUtil.release(msg)
来释放,这个方法会判断上下文中是否可以释放,简单方便。
方式三:升级ChannelHandler
为SimpleChannelHandler
, 在 SimpleChannelHandler 中,Netty 对收到的所有消息都调用了ReferenceCountUtil.release(msg)
,升级接口,可能对现有 API 改动会比较大。
版权声明: 本文为 InfoQ 作者【京东科技开发者】的原创文章。
原文链接:【http://xie.infoq.cn/article/f711cf226a620ac957ec02091】。文章转载请联系作者。
评论