写点什么

分布式场景怎么 Join | 京东云技术团队

  • 2024-02-20
    北京
  • 本文字数:2950 字

    阅读完需:约 10 分钟

背景

最近在阅读查询优化器的论文,发现 System R 中对于 Join 操作的定义一般分为了两种,即嵌套循环、排序-合并联接。在原文中,更倾向使用排序-合并联接逻辑。


考虑到我的领域是在处理分库分表或者其他的分区模式,这让我开始不由得联想我们怎么在分布式场景应用这个 Join 逻辑,对于两个不同库里面的不同表我们是没有办法直接进行 Join 操作的。查阅资料后发现原来早有定义,即分布式联接算法。

分布式联接算法

跨界点处理数据即分布式联接算法,常见的有四种模型:Shuffle Join(洗牌联接)、Broadcast Join(广播联接)、MapReduce Join(MapReduce 联接)、Sort-Merge Join(排序-合并联接)。


接下来将进行逐一了解与分析,以便后续开发的应用。

Shuffle Join(洗牌联接)

先上原理解释:


Shuffle Join 的核心思想是将来自不同节点的数据重新分发(洗牌),使得可以联接的数据行最终位于同一个节点上。 通常,对于要联接的两个表,会对联接键应用相同的哈希函数,哈希函数的结果决定了数据行应该被发送到哪个节点。这样,所有具有相同哈希值的行都会被送到同一个节点,然后在该节点上执行联接操作。


可能解释完还是有点模糊,举个例子,有两张表,分别以 id 字段进行分库操作,且哈希算法相同(为了简单,这里只介绍分库场景,分库分表同理。算法有很多种,这里举例是 hash 算法),那么这两张表的分片或许可以在同一个物理库中,这样我们不需要做大表维度的处理,我们可以直接下推 Join 操作到对应的物理库操作即可。


在 ShardingSphere 中,这种场景类似于绑定表的定义,如果两张表的算法相同,可以直接配置绑定表的关系,进行相同算法的连接查询,避免复杂的笛卡尔积。


这样做的好处是可以尽量下推到数据库操作,在中间件层面我们可以做并行处理,适合大规模的数据操作。


但是,这很理想,有多少表会采用相同算法处理呢。

Broadcast Join(广播联接)

先上原理解释:


当一个表的大小相对较小时,可以将这个小表的全部数据广播到所有包含另一个表数据的节点上。 每个节点上都有小表的完整副本,因此可以独立地与本地的大表数据进行联接操作,而不需要跨节点通信。


举个例子,有一张非常小的表 A,还有一张按照 ID 分片的表 B,我们可以在每一个物理库中复制一份表 A,这样我们的 Join 操作就可以直接下推到每一个数据库操作了。


这种情况比 Shuffle Join 甚至还有性能高效,这种类似于 ShardingSphere 中的广播表的定义,其存在类似于字典表,在每一个数据库都同时存在一份,每次写入会同步到多个节点。


这种操作的好处显而易见,不仅支持并行操作而且性能极佳。


但是缺点也显而易见,如果小表不够小数据冗余不说,广播可能会消耗大量的网络带宽和资源。

MapReduce Join(MapReduce 联接)

先上原理解释:


MapReduce 是一种编程模型,用于处理和生成大数据集,其中的联接操作可以分为两个阶段:Map 阶段和 Reduce 阶段。 Map 阶段:每个节点读取其数据分片,并对需要联接的键值对应用一个映射函数,生成中间键值对。 Reduce 阶段: 中间键值对会根据键进行排序(在某些实现中排序发生在 Shuffle 阶段)和分组,然后发送到 Reduce 节点。 在 Reduce 节点上,具有相同键的所有值都会聚集在一起,这时就可以执行联接操作。


MapReduce Join 不直接应用于传统数据库逻辑,而是适用于 Hadoop 这样的分布式处理系统中。但是为了方便理解,还是用 SQL 语言来分析,例如一条 SQL:


SELECT orders.order_id, orders.date, customers.nameFROM ordersJOIN customers ON orders.customer_id = customers.customer_id;
复制代码


会被转换为两个 SQL:


SELECT customer_id, order_id, date FROM orders;SELECT customer_id, name FROM customers;
复制代码


这个过程就是 Map 阶段,即读取orderscustomers表的数据,并为每条记录输出键值对,键是customer_id,值是记录的其余部分。


下一个阶段可有可无,即 Shuffle 阶段。如果不在这里排序可能会在 Map 阶段执行 SQL 时候排序/分组或者在接下来的 Reduce 阶段进行额外排序/分组。在这个阶段主要将收集到的数据按照 customer_id 排序分组,以确保相同的 customer_id 的数据达到 Reduce 阶段。


Reduce 阶段将每个对应的 customer_id 进行联接操作,输出并返回最后的结果。


这种操作普遍应用于两个算法完全不相同的表单,也是一种标准的处理模型,在这个过程中,我们以一张逻辑表的维度进行操作。这种算法可能会消耗大量内存,甚至导致内存溢出,并且在处理大数据量时会相当耗时,因此不适合需要低延迟的场景。

额外补充

内存溢出场景普遍在如下场景:


1.大键值对数量:如果 Map 阶段产生了大量的键值对,这些数据需要在内存中进行缓存以进行排序和传输,这可能会消耗大量内存。


2.数据倾斜:如果某个键非常常见,而其他键则不那么常见,那么处理这个键的 Reducer 可能会接收到大量的数据,导致内存不足。这种现象称为数据倾斜。


3.大值列表:在 Reduce 阶段,如果某个键对应的值列表非常长,处理这些值可能会需要很多内存。


4.不合理的并行度:如果 Reduce 任务的数量设置得不合适(太少或太多),可能会导致单个任务处理不均匀,从而导致内存问题。


我能想到的相应解决方案:


•内存到磁盘的溢写:当 Map 任务的输出缓冲区满了,它会将数据溢写到磁盘。这有助于限制内存使用,但会增加 I/O 开销。


•通过设置合适的 Map 和 Reduce 任务数量,可以更有效地分配资源,避免某些任务过载。具体操作可以将 Map 操作的分段比如 1~100,100~200,Reduce 阶段开设较少的并发处理。


•优化数据分布,比如使用范围分区(range partitioning)或哈希分区(hash partitioning)来减少数据倾斜。

Sort-Merge Join(排序-合并联接)

先上原理解释:


在分布式环境中,Sort-Merge Join 首先在每个节点上对数据进行局部排序,然后将排序后的数据合并起来,最后在合并的数据上执行联接操作。 这通常涉及到多阶段处理,包括局部排序、数据洗牌(重新分发),以及最终的排序和合并。


举个理解,还是上面的 SQL。


SELECT orders.order_id, orders.date, customers.nameFROM ordersJOIN customers ON orders.customer_id = customers.customer_id;
复制代码


1.对orders表按customer_id进行排序。


2.对customers表按customer_id进行排序。


3.同时遍历两个已排序的表,将具有相同customer_id的行配对。


这个就有点类似于原生的排序-合并联接了。也是数据库场景的标准处理办法。


对于已经排序的数据集或数据分布均匀的情况,这种方法非常有效。如果数据未预先排序,这种方法可能会非常慢,因为它要求数据在联接之前进行排序。


当然,这个算法也会造成内存溢出的场景,解决方案如下:


1.当数据集太大而无法一次性加载到内存中时,可以使用外部排序算法。外部排序算法会将数据分割成多个批次,每个批次单独排序,然后将排序后的批次合并。这种方法通常涉及到磁盘 I/O 操作,因此会比内存中操作慢。


2.对于合并步骤,可以使用流式处理技术,一次只处理数据的一小部分,并持续将结果输出到下一个处理步骤或存储系统。这样可以避免一次性加载大量数据到内存中。


3.当内存不足以处理数据时,可以使用磁盘空间作为临时存储。数据库管理系统通常有机制来处理内存溢出,比如创建磁盘上的临时文件来存储过程中的数据。


4.在分布式系统中,可以将数据分散到多个节点上进行处理,这样每个节点只需要处理数据的一部分,从而减少单个节点上的内存压力。​


作者:京东科技 张俊杰


来源:京东云开发者社区 转载请注明来源

用户头像

拥抱技术,与开发者携手创造未来! 2018-11-20 加入

我们将持续为人工智能、大数据、云计算、物联网等相关领域的开发者,提供技术干货、行业技术内容、技术落地实践等文章内容。京东云开发者社区官方网站【https://developer.jdcloud.com/】,欢迎大家来玩

评论

发布
暂无评论
分布式场景怎么Join | 京东云技术团队_京东科技开发者_InfoQ写作社区