写点什么

一次 zuul 版本升级产生的问题排查记录

作者:骑牛上青山
  • 2022-11-17
    上海
  • 本文字数:2562 字

    阅读完需:约 8 分钟

起因

事情的起因是由于早期的一些服务版本放到现在太低了,基本上都是SpringBoot1.5.x,因此准备统一对服务进行一次版本升级,升级到2.1.xSpringCloud``版本升级到Greenwich。当然我们用的旧版本的 zuul 相关的都需要升级。

意外的 Bug

我们网关使用的是 zuul,使用的是spring-cloud-netflix封装的包,此次版本升级同步升级了相关的包。但是意外的情况发生了,在测试环境上我们发现上传文件会出现异常。具体表现是这样的:当上传的文件超出一定大小后,在经过 zuul 网关并向其他服务转发的时候,之前上传的包就不见了。这个情况十分奇怪,因此马上开始排查。

Bug 的排查

出现这样的问题,第一反应是测试是不是根本没有上传包所以当然包没法转发到下一层,当然这种想法很快被否定了。好吧,那就认真的排查吧。


首先先去追踪了一下路由以及出现的具体日志,将问题定位到 zuul 服务,排除了上游 nginx 和下游业务服务出现问题的可能。但是 zuul 服务没有任何异常日志出现,所以非常困扰。检查过后发现文件确实有通过 zuul,但是之后凭空消失没有留下一点痕迹。


明明当初考虑上传文件的问题给 zuul 分配了两个 g 的内存,怎么上传 500m 的文件就出问题了呢?不对!此时我灵光一闪,会不会和垃圾回收机制有关。我们的文件是非常大的,这样的大文件生成的大对象是会保存在 java 的堆上的,并且由于垃圾回收的机制,这样的对象不会经历年轻代,会直接分配到老年代,会不会是由于我们内存参数设置不合理导致老年代太小而放不下呢?想到做到,我们通过调整 jvm 参数,保证了老年代至少有一个 G 的空间,并且同步检测了 java 的堆内存的状态。然而让人失望的是居然没有奏效。不过此时事情和开始不同,我们有了线索。在刚才的堆的内存监控中发现了一些异常,随即合理怀疑是堆中内存不够导致了 oom。随后加大内存尝试并且再次运行,发现居然上传成功了。果然是老年代内存不足导致的 oom,不过虽然上传成功,但是老年代中的内存居然被占用了 1.6G 左右,明明是 500M 的文件,为什么会占用了这么大的内存呢?


虽然找到了原因,但是增加内存显然不是解决问题的方法,因此,我们在启动参数上新增了-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/data准备查看 oom 的具体分析日志。



查看堆栈信息可以发现,溢出是发生在 byte 数组的拷贝上,我们迅速定位代码,可以找到如下的代码:


    public InputStream getRequestEntity() {        if (requestEntity == null) {            return null;        }                if (!retryable) {            return requestEntity;        }
try { if (!(requestEntity instanceof ResettableServletInputStreamWrapper)) { requestEntity = new ResettableServletInputStreamWrapper( StreamUtils.copyToByteArray(requestEntity)); } requestEntity.reset(); } finally { return requestEntity; } }
复制代码


这段代码源自RibbonCommandContext是在 zuul 中进行请求转发的时候调用到的,具体的 OOM 是发生在调用StreamUtils.copyToByteArray(requestEntity));的时候。继续进入方法查找源头。最终经过排查找到了溢出的源头。ribbon 转发中的用到了ByteArrayOutputStream的拷贝,代码如下:


    public synchronized void write(byte b[], int off, int len) {        if ((off < 0) || (off > b.length) || (len < 0) ||            ((off + len) - b.length > 0)) {            throw new IndexOutOfBoundsException();        }        ensureCapacity(count + len);        System.arraycopy(b, off, buf, count, len);        count += len;    }
复制代码


可以看到这边有一个ensureCapacity,查看源码:


    private void ensureCapacity(int minCapacity) {        // overflow-conscious code        if (minCapacity - buf.length > 0)            grow(minCapacity);    }
private void grow(int minCapacity) { // overflow-conscious code int oldCapacity = buf.length; int newCapacity = oldCapacity << 1; if (newCapacity - minCapacity < 0) newCapacity = minCapacity; if (newCapacity - MAX_ARRAY_SIZE > 0) newCapacity = hugeCapacity(minCapacity); buf = Arrays.copyOf(buf, newCapacity); }
复制代码


可以看到ensureCapacity做了一件事,就是当流拷贝的时候 byte 数组的大小不够了,那就调用grow进行扩容,而grow的扩容和ArrayList不同,他的扩容是每一次将数组扩大两倍。


至此溢出的原因就很清楚了,500m 文件占用 1.6g 是因为刚好触发扩容,导致用了多一倍的空间来容纳拷贝的文件,再加上源文件,所以占用了文件的 3 倍空间。

解决方案

至于解决方案,调整内存占用或者是老年代的占比显然不是合理的解决方案。我们再回头查看源代码,可以看到这个部分


    if (!retryable) {        return requestEntity;    }
复制代码


如果设置的不重试的话,那么 body 中的信息就不会被保存。所以,我们决定临时先去除上传文件涉及到的服务的重试,之后再修改上传机制,在以后的上传文件时绕过 zuul。

追根溯源

虽然找到的原因,并且也有了解决方案,但是我们仍然不知道为什么旧版本是 ok 的,因此本着追根究底的态度,找到了旧版的 zuul 的源码。


新版的 ribbon 代码集成spring-cloud-netflix-ribbon,而旧版的 ribbon 的代码集成在spring-cloud-netflix-core中,所以稍稍花费点时间才找到对应的代码,检查不同,发现旧版的getRequestEntity没有任何的处理,直接返回了requestEntity


    public InputStream getRequestEntity() {        return requestEntity;    }
复制代码


而在之后的版本中马上就加上了拷贝机制。于是我们去 github 上找到了当初的那个commit


之后我们顺着 commit 中给出的信息找到了最初的issue


查看过 issue 之后发现这原来是旧版的一个 bug,这个 bug 会导致旧版的 post 请求在 retry 的时候有 body 丢失的情况,因此在新版本中进行了修复,当请求为 post 的时候会对于 body 进行缓存以便于重试。


至此,我们原原本本的复原了这个 bug 的全貌以及形成的历史和原因。并且找到适当的解决方案。最后提一句:真的不要用 zuul 来上传大文件,真的会很糟糕!


发布于: 刚刚阅读数: 4
用户头像

还未添加个人签名 2021-05-18 加入

还未添加个人简介

评论

发布
暂无评论
一次zuul版本升级产生的问题排查记录_骑牛上青山_InfoQ写作社区