「架构师训练营」第五周作业

发布于: 2020 年 07 月 08 日
「架构师训练营」第五周作业

一致性Hash

一致性哈希算法在1997年由麻省理工学院提出的一种分布式哈希(DHT)实现算法,设计目标是为了解决因特网中的热点(Hot spot)问题,初衷和CARP十分类似。一致性哈希修正了CARP使用的简 单哈希算法带来的问题,使得分布式哈希(DHT)可以在P2P环境中真正得到应用。

 

    一致性hash算法提出了在动态变化的Cache环境中,判定哈希算法好坏的四个定义:

  1. 平衡性(Balance):平衡性是指哈希的结果能够尽可能分布到所有的缓冲中去,这样可以使得所有的缓冲空间都得到利用。很多哈希算法都能够满足这一条件。

  2. 单调性(Monotonicity):单调性是指如果已经有一些内容通过哈希分派到了相应的缓冲中,又有新的缓冲加入到系统中。哈希的结果应能够保证原有已分配的内容可以被映射到原有的或者新的缓冲中去,而不会被映射到旧的缓冲集合中的其他缓冲区。 

  3. 分散性(Spread):在分布式环境中,终端有可能看不到所有的缓冲,而是只能看到其中的一部分。当终端希望通过哈希过程将内容映射到缓冲上时,由于不同终端所见的缓冲范围有可能不同,从而导致哈希的结果不一致,最终的结果是相同的内容被不同的终端映射到不同的缓冲区中。这种情况显然是应该避免的,因为它导致相同内容被存储到不同缓冲中去,降低了系统存储的效率。分散性的定义就是上述情况发生的严重程度。好的哈希算法应能够尽量避免不一致的情况发生,也就是尽量降低分散性。 

  4. 负载(Load):负载问题实际上是从另一个角度看待分散性问题。既然不同的终端可能将相同的内容映射到不同的缓冲区中,那么对于一个特定的缓冲区而言,也可能被不同的用户映射为不同 的内容。与分散性一样,这种情况也是应当避免的,因此好的哈希算法应能够尽量降低缓冲的负荷。

    在分布式集群中,对机器的添加删除,或者机器故障后自动脱离集群这些操作是分布式集群管理最基本的功能。如果采用常用的hash(object)%N算法,那么在有机器添加或者删除后,很多原有的数据就无法找到了,这样严重的违反了单调性原则。

算法的具体原理:

先构造一个长度为232的整数环(这个环被称为一致性Hash环),根据节点名称的Hash值(其分布为[0, 232-1])将服务器节点放置在这个Hash环上,然后根据数据的Key值计算得到其Hash值(其分布也为[0, 232-1]),接着在Hash环上顺时针查找距离这个Key值的Hash值最近的服务器节点,完成Key到服务器的映射查找。

但是现实总是如此骨干,该平均分布的一点都不平均。于是一致性HASH的升级版诞生了,那就是基于虚拟节点的一致性HASH节点。能够通过增加逻辑节点的方式,让值保存的更加均匀。

============================
keyValue = 192.168.1.1=67538
keyValue = 192.168.1.3=45532
keyValue = 192.168.1.10=40855
keyValue = 192.168.1.2=40013
keyValue = 192.168.1.9=35756
keyValue = 192.168.1.8=93623
keyValue = 192.168.1.5=30251
keyValue = 192.168.1.4=28445
keyValue = 192.168.1.7=553401
keyValue = 192.168.1.6=64586
平均值:100000.00
最大值:553401,(553.40%)
最小值:28445,(28.45%)
极差:524956,(524.96%)
标准差:90680.20,(90.68%)
Disconnected from the target VM, address: '127.0.0.1:49991', transport: 'socket'
Process finished with exit code 0

https://github.com/huoxudong125/org.hqf.architect.demo/tree/master/consistent-hashing

发布于: 2020 年 07 月 08 日 阅读数: 21
用户头像

旭东(Frank)

关注

世事洞明皆学问,日思一刻,日拱一卒。 2011.04.01 加入

微信公众号:ThinkingInDev,记录工作过程中点滴思考。这里有坑,有料,有思,有想的开发工作日记

评论

发布
暂无评论
「架构师训练营」第五周作业