写点什么

一招 MAX 降低 10 倍,现在它是我的了| 京东零售技术团队

  • 2024-05-10
    北京
  • 本文字数:6359 字

    阅读完需:约 21 分钟

一.背景

性能优化是一场永无止境的旅程。


到家门店系统,作为到家核心基础服务之一,门店 C 端接口有着调用量高,性能要求高的特点。


C 端服务经过演进,核心接口先查询本地缓存,如果本地缓存没有命中,再查询 Redis。本地缓存命中率 99%,服务性能比较平稳。



随着门店数据越来越多,本地缓存容量逐渐增大到 3G 左右。虽然对垃圾回收器和 JVM 参数都进行调整,由于本地缓存数据量越来越大,本地缓存数据对于应用 GC 的影响越来越明显,YGC 平均耗时****100ms特别是大促期间调用方接口毛刺感知也越来越明显


由于本地缓存在每台机器上容量是固定的,即便是将机器扩容,对与 GC 毛刺也没有明显效果。



二.初识此物心已惊-OHC 初识

本地缓存位于应用程序的内存中,读取和写入速度非常快,可以快速响应请求,无需额外的网络通信,但是一般本地缓存存在 JVM 内,数据量过多会影响 GC,造成 GC 频率、耗时增加;如果用 Redis 的话有网络通信的开销。



通过对本地缓存的调研,堆外缓存可以很好兼顾上面的问题。堆外缓存把数据放在 JVM 堆外的,缓存数据对 GC 影响较小,同时它是在机器内存中的,相对与 Redis 也没有网络开销,最终选择 OHC。

三.习得技能心自安-OHC 使用

talk is cheap, show me the code! OCH 是骡子是马我们遛一遛。

1.引入 POM

OHC 存储的是二进制数组,需要实现 OHC 序列化接口,将缓存数据与二进制数组之间序列化和反序列化


这里使用的是 Protostuff,当然也可以使用 kryo、Hession 等,通过压测验证选择适合的序列化框架。


<!--OHC相关--><dependency>  <groupId>org.caffinitas.ohc</groupId>  <artifactId>ohc-core</artifactId>  <version>0.7.4</version></dependency>
<!--OHC 存储的是二进制数组,所以需要实现OHC序列化接口,将缓存数据与二进制数组之间序列化和反序列化--><!--这里使用的是protostuff,当然也可以使用kryo、Hession等,通过压测验证选择适合的--><dependency> <groupId>io.protostuff</groupId> <artifactId>protostuff-core</artifactId> <version>1.6.0</version></dependency><dependency> <groupId>io.protostuff</groupId> <artifactId>protostuff-runtime</artifactId> <version>1.6.0</version></dependency>
复制代码

2.创建 OHC 缓存

OHC 缓存创建


OHCache<String, XxxxInfo> basicStoreInfoCache = OHCacheBuilder.<String, XxxxInfo>newBuilder()                    .keySerializer(new OhcStringSerializer()) //key的序列化器                    .valueSerializer(new OhcProtostuffXxxxInfoSerializer()) //value的序列化器                    .segmentCount(512) // 分段数量 默认=2*CPU核数                    .hashTableSize(100000)// 哈希表大小 默认=8192                    .capacity(1024 * 1024 * 1024) //缓存容量 单位B 默认64MB                    .eviction(Eviction.LRU) // 淘汰策略 可选LRU\W_TINY_LFU\NONE                    .timeouts(false) //不使用过期时间,根据业务自己选择                    .build();
复制代码


自定义序列化器,这里 key-String 序列化器,这里直接复用 OCH 源码中测试用例的 String 序列化器


value-自定义对象序列化器,这里用 Protostuff 实现,也可以自己选择使用 kryo、Hession 等实现;


//key-String 序列化器,这里直接复用OCH源码中测试用例的String序列化器public class OhcStringSerializer implements CacheSerializer<String> {
@Override public int serializedSize(String value) { return writeUTFLen(value); }
@Override public void serialize(String value, ByteBuffer buf) { // 得到字符串对象UTF-8编码的字节数组 byte[] bytes = value.getBytes(Charsets.UTF_8); buf.put((byte) ((bytes.length >>> 8) & 0xFF)); buf.put((byte) ((bytes.length >>> 0) & 0xFF)); buf.put(bytes); }

@Override public String deserialize(ByteBuffer buf) { int length = (((buf.get() & 0xff) << 8) + ((buf.get() & 0xff) << 0)); byte[] bytes = new byte[length]; buf.get(bytes); return new String(bytes, Charsets.UTF_8); } static int writeUTFLen(String str) { int strlen = str.length(); int utflen = 0; int c;
for (int i = 0; i < strlen; i++) { c = str.charAt(i); if ((c >= 0x0001) && (c <= 0x007F)){ utflen++;} else if (c > 0x07FF){ utflen += 3;} else{ utflen += 2; } }
if (utflen > 65535) { throw new RuntimeException("encoded string too long: " + utflen + " bytes"); } return utflen + 2; }}

//value-自定义对象序列化器,这里用Protostuff实现,可以自己选择使用kryo、Hession等实现public class OhcProtostuffXxxxInfoSerializer implements CacheSerializer<XxxxInfo> {
/** * 将缓存数据序列化到 ByteBuffer 中,ByteBuffer是OHC管理的堆外内存区域的映射。 */ @Override public void serialize(XxxxInfo t, ByteBuffer byteBuffer) { byteBuffer.put(ProtostuffUtils.serialize(t)); } /** * 对堆外缓存的数据进行反序列化 */ @Override public XxxxInfo deserialize(ByteBuffer byteBuffer) { byte[] bytes = new byte[byteBuffer.remaining()]; byteBuffer.get(bytes); return ProtostuffUtils.deserialize(bytes, XxxxInfo.class); }
/** * 计算字序列化后占用的空间 */ @Override public int serializedSize(XxxxInfo t) { return ProtostuffUtils.serialize(t).length; }}
复制代码


为了方便调用和序列化封装为工具类,同时对代码通过 FastThreadLocal 进行优化,提升性能


public class ProtostuffUtils {
/** * 避免每次序列化都重新申请Buffer空间,提升性能 */ private static final FastThreadLocal<LinkedBuffer> bufferPool = new FastThreadLocal<LinkedBuffer>() { @Override protected LinkedBuffer initialValue() throws Exception { return LinkedBuffer.allocate(4 * 2 * LinkedBuffer.DEFAULT_BUFFER_SIZE); } };
/** * 缓存Schema */ private static Map<Class<?>, Schema<?>> schemaCache = new ConcurrentHashMap<>();
/** * 序列化方法,把指定对象序列化成字节数组 */ @SuppressWarnings("unchecked") public static <T> byte[] serialize(T obj) { Class<T> clazz = (Class<T>) obj.getClass(); Schema<T> schema = getSchema(clazz); byte[] data; LinkedBuffer linkedBuffer = null; try { linkedBuffer = bufferPool.get(); data = ProtostuffIOUtil.toByteArray(obj, schema, linkedBuffer); } finally { if (Objects.nonNull(linkedBuffer)) { linkedBuffer.clear(); } }
return data; }
/** * 反序列化方法,将字节数组反序列化成指定Class类型 */ public static <T> T deserialize(byte[] data, Class<T> clazz) { Schema<T> schema = getSchema(clazz); T obj = schema.newMessage(); ProtostuffIOUtil.mergeFrom(data, obj, schema); return obj; }
@SuppressWarnings("unchecked") private static <T> Schema<T> getSchema(Class<T> clazz) { Schema<T> schema = (Schema<T>) schemaCache.get(clazz); if (Objects.isNull(schema)) { schema = RuntimeSchema.getSchema(clazz); if (Objects.nonNull(schema)) { schemaCache.put(clazz, schema); } }
return schema; }}
复制代码

3.压测及参数调整

通过压测并逐步调整 OHC 配置常见参数(segmentCount、hashTableSize、eviction,参数含义见附录


MAX 对比降低 10 倍



GC 时间对比降低 10 倍


优化前



优化后


4.OHC 缓存状态监控

OHC 缓存的命中次数、内存使用状态等存储在 OHCacheStats 中,可以通过 OHCache.stats()获取


OHCacheStates 信息:


hitCount:缓存命中次数,表示从缓存中成功获取数据的次数。 missCount:缓存未命中次数,表示尝试从缓存中获取数据但未找到的次数。 evictionCount:缓存驱逐次数,表示因为缓存空间不足而从缓存中移除的数据项数量。 expireCount:缓存过期次数,表示因为缓存数据过期而从缓存中移除的数据项数量。 size:缓存当前存储的数据项数量。 capacity:缓存的最大容量,表示缓存可以存储的最大数据项数量。 free:缓存剩余空闲容量,表示缓存中未使用的可用空间。 rehashCount:重新哈希次数,表示进行哈希表重新分配的次数。 put(add/replace/fail):数据项添加/替换/失败的次数。 removeCount:缓存移除次数,表示从缓存中移除数据项的次数。 segmentSizes(#/min/max/avg):段大小统计信息,包括段的数量、最小大小、最大大小和平均大小。 totalAllocated:已分配的总内存大小,表示为负数时表示未知。 lruCompactions:LRU 压缩次数,表示进行 LRU 压缩的次数。


通过定期采集 OHCacheStates 信息,来监控本地缓存数据、 命中率=[命中次数 / (命中次数 + 未命中次数)]等 ,并添加相关报警。同时通过缓存状态信息,来判断过期策略、段数、容量等设置是否合理,命中率是否符合预期等。

四.剖析根源见真谛-OHC 原理

堆外缓存框架(Off-Heap Cache)是将缓存数据存储在 JVM 堆外的内存区域,而不是存储在 JVM 堆中。在 OHC(Off-Heap Cache)中,数据也是存储在堆外的内存区域。


具体来说,OHC 使用 DirectByteBuffer 来分配堆外内存,并将缓存数据存储在这些 DirectByteBuffer 中。


DirectByteBuffer 在 JVM 堆外的内存区域中分配一块连续的内存空间,缓存数据被存储在这个内存区域中。这使得 OHC 在处理大量数据时具有更高的性能和效率,因为它可以避免 JVM 堆的垃圾回收和堆内存限制


OHC 核心 OHCache 接口提供了两种实现:


OHCacheLinkedImpl: 实现为每个条目单独分配堆外内存,最适合中型和大型条目。


•OHCacheChunkedImpl:实现为每个散列段作为一个整体分配堆外内存,并且适用于小条目。(实验性的,不推荐,不做关注)



可以看到 OHCacheLinkedImpl 中包含多个段,每个段用 OffHeapLinkedMap 来表示。同时,OHCacheLinkedImpl 将 Java 对象序列化成字节数组存储在堆外,在该过程中需要使用用户自定义的 CacheSerializer。


OHCacheLinkedImpl 的主要工作流程如下:


1.计算 key 的 hash 值,根据 hash 值计算段号,确定其所处的 OffHeapLinkedMap


2.从 OffHeapLinkedMap 中获取该键值对的堆外内存地址(指针)


3.对于 get 操作,从指针所指向的堆外内存读取 byte[],把 byte[]反序列化成对象


4.对于 put 操作,把对象序列化成 byte[],并写入指针所指向的堆外内存


可以将 OHC 理解为一个 key-value 结果的 map,只不过这个 map 数据存储是指向堆外内存的内存指针。


指针在堆内,指针指向的缓存数据存储在堆外。那么 OHC 最核心的其实就是对堆外内存的地址引用的 put 和 get 以及发生在其中内存空间的操作了。


对 OHCacheLinkedImpl 的 put、get 本地调试

1.put


put 核心操作就是


1.申请堆外内存


2.将申请地址存入 map;


3.异常时释放内存


第 2 步其实就是 map 数据更新、扩容等的一些实现这里不在关注,我们重点关注怎么申请和释放内存的

1.申请内存

通过深入代码发现是调用的 IAllocator 接口的 JNANativeAllocator 实现类,最后调用的是 com.sun.jna.Native#malloc 实现




2.释放内存

通过上面可知释放内存操作的代码


2.get

3.Q&A

在 put 操作时,上面看到 IAllocator 有两个实现类,JNANativeAllocator 和 UnsafeAllocator 两个实现类,他们有什么区别?为什么使用 JNANativeAllocator?


区别:UnsafeAllocator 对内存操作使用的是 Unsafe



为什么使用 JNANativeAllocator:Native 比 Unsafe 性能更好,差 3 倍左右,OHC 默认使用 JNANativeAllocator


在日常我们知道通过 ByteBuffer#allocateDirect(int capacity)也可以直接申请堆外内存,通过 ByteBuffer 源码可以看到内部使用的就是 Unsafe 类




可以看到,同时 DirectByteBuffer 内部会调用 Bits.reserveMemory(size, cap);



Bits.reserveMemory 方法中,当内存不足时可能会触发 fullgc,多个申请内存的线程同时遇到这种情况时,对于服务来说是不能接受的,所以这也是 OHC 自己进行堆外内存管理的原因。


如果自己进行实现堆外缓存框架,要考虑上面这种情况。

五.总结

1.OHC 使用建议

1.对于 OHC 的参数配置、序列化器的选择,没有固定的推荐。可以通过压测逐步调整到最优


2.由于 OHC 需要把 key 和 value 序列化成字节数组存储到堆外,因此需要选择合适的序列化工具


3.在存储每个键值对时,会调用 CacheSerializer#serializedSize 计算序列化后的内存空间占用,从而申请堆外内存。另外,在真正写入堆外时,会调用 CacheSerializer#serialize 真正进行序列化。因此,务必在这两个方法中使用相同的序列化方法,防止序列化的大小与计算出来的大小不一致,导致内存存不下或者多申请,浪费内存空间

2.缓存优化建议

1.当本地缓存影响 GC 时,可以考虑使用 OHC 减少本地缓存对 GC 的影响


2.区分热点数据,对缓存数据进行多级拆分,如堆内->堆外->分布式缓存(Reids )等;


3.将较大缓存对象拆分或者按照业务维度将不同热点数据缓存到不同介质中,减少单一存储介质压力;


4.减小缓存对象大小,如缓存 JSON 字符,可对字段名进行缩写 ,减少存储数据量,降低传输数据量,同时也能保证数据一定的私密性。


对象:{"paramID":1,"paramName":"John Doe"} 正常 JSON 字符串:{"paramID":1,"paramName":"John Doe"} 压缩字段名 JSON 字符串:{"a":1,"b":"John Doe"}

Hold hold , One more thing....

在使用 Guava 时,存储 25w 个缓存对象数据占用空间 485M


使用 OHCache 时,储存 60w 个缓存对象数据占用数据 387M


为什么存储空间差别那么多吶?



Guava 存储的对象是在堆内存中的,对象在 JVM 堆中存储时,它们会占用一定的内存空间,并且会包含对象头、实例数据和对齐填充等信息。对象的大小取决于其成员变量的类型和数量,以及可能存在的对齐需求。同时当对象被频繁创建和销毁时,可能会产生内存碎片。


而 OHC 它将对象存储在 JVM 堆外的直接内存中。由于堆外内存不受 Java 堆内存大小限制,OHC 可以更有效地管理和利用内存。此外,OHC 底层存储字节数组,存储字节数组相对于直接存储对象,可以减少对象的创建和销毁,在一些场景下,直接操作字节数组可能比操作对象更高效,因为它避免了对象的额外开销,如对象头和引用,减少额外的开销。同时将对象序列化为二进制数组存储,内存更加紧凑,减少内存碎片的产生


综上所述,OHC 在存储大量对象时能够更有效地利用内存空间,相对于 Guava 在内存占用方面具有优势。


另外一个原因,不同序列化框架性能不同,将对象序列化后的占用空间的大小也不同




参考及附录

1.OHC 常见参数



2.JNI faster than Unsafe?


https://mail.openjdk.org/pipermail/hotspot-dev/2015-February/017089.html


3.OHC 源码


https://github.com/snazy/ohc


4.参考文档


•序列化框架对比


•Java堆外缓存OHC在马蜂窝推荐引擎的应用


•“堆外缓存”这玩意是真不错,我要写进简历了。


作者:京东零售 赵雪召


来源:京东云开发者社区

发布于: 刚刚阅读数: 5
用户头像

拥抱技术,与开发者携手创造未来! 2018-11-20 加入

我们将持续为人工智能、大数据、云计算、物联网等相关领域的开发者,提供技术干货、行业技术内容、技术落地实践等文章内容。京东云开发者社区官方网站【https://developer.jdcloud.com/】,欢迎大家来玩

评论

发布
暂无评论
一招MAX降低10倍,现在它是我的了| 京东零售技术团队_京东科技开发者_InfoQ写作社区