首先摘抄一段维基百科的定义
一致哈希 是一种特殊的哈希算法。在使用一致哈希算法后,哈希表槽位数(大小)的改变平均只需要对𝐾/𝑛 个关键字重新映射,其中 𝐾 是关键字的数量,𝑛是槽位数量。然而在传统的哈希表中,添加或删除一个槽位的几乎需要对所有关键字进行重新映射。 --- wikipedia
分布式系统中, 一致性hash无处不在,CDN,KV,负载均衡等地方都有它的影子,是分布式系统的基石算法之一。一致性hash 有以下几个优点。
This article is first published in the medium MPP plan. If you are a medium user, please follow me in medium[1]. Thank you very much.
最基础的一致性 hash 算法就是把节点直接分布到环上,从而划分出值域, key 经过 hash( x )
之后,落到不同的值域,则由对应的节点处理。最常见的值域空间大小是:2^32 - 1
,节点落到这个空间,来划分不同节点所属的值域。如图所示。
Node A 存储 的 hash 范围为 [0,2^12) . Node B 存储 的 hash 范围为 [2^12,2^28) . Node C 存储 的 hash 范围为 [2^28,0) . 上述基本的一致性哈希算法有明显的缺点:
Go语言之父 rob pike
曾经说过 计算机领域里,没有什么问题是加一层间接寻址解决不了的
. 一致性hash 也是一样。
如果三个节点 存在不均衡的问题,那么我们就把他虚拟成N个节点。A[a1,a2....a1024], 然后将他们映射到hash_ring 上,就是这样样子的。
每个虚拟节点都有对应的hash区间。负责一段key,然后根据虚拟node 的名字找到对应的物理node读写数据。 引入虚拟节点后,就完美的解决了上面的三个问题。 4. 只要我们的虚拟节点足够多,各个节点的数据就能平衡,(⚠️:这个在工程上是有代价的) 5. 如果一个节点宕机了,它的数据会均衡的分布到整个集群所有节点,同理,新增的节点 也能负担所有节点的压力。
完整的代码:https://github.com/hxzhouh/blog-example/tree/main/Distributed/consistent_hashing[2]
首先定义一个hash_ring, 使用 crc32.ChecksumIEEE
作为默认的hash function
type VirtualNode struct { // 虚拟节点
Hash uint32
Node *Node
}
type Node struct { // 物理节点
ID string
Addr string
}
type HashRing struct {
Nodes map[string]*Node
VirtualNodes []VirtualNode.
mu sync.Mutex
hash HashFunc
}
funcNewHashRing(hash HashFunc) *HashRing {
if hash == nil {
hash = crc32.ChecksumIEEE
}
return &HashRing{
Nodes: make(map[string]*Node),
VirtualNodes: make([]VirtualNode, 0),
hash: hash,
}
}
我们来看一下怎么添加节点:
func (hr *HashRing) AddNode(node *Node) {
hr.mu.Lock()
defer hr.mu.Unlock()
hr.Nodes[node.ID] = node
for i := 0; i < VirtualNodesPerNode; i++ {
virtualNodeID := fmt.Sprintf("%s-%d", node.ID, i)
hash := hr.hash([]byte(virtualNodeID))
hr.VirtualNodes = append(hr.VirtualNodes, VirtualNode{Hash: hash, Node: node})
}
sort.Slice(hr.VirtualNodes, func(i, j int)bool {
return hr.VirtualNodes[i].Hash < hr.VirtualNodes[j].Hash
})
}
我们每添加一个节点,就要创建对应数量的虚拟节点,并且要保证虚拟节点有序(这样才能查找) 同样,remove 的时候,也需要删除虚拟节点
func (hr *HashRing) RemoveNode(nodeID string) {
hr.mu.Lock()
defer hr.mu.Unlock()
delete(hr.Nodes, nodeID)
virtualNodes := make([]VirtualNode, 0)
for _, vn := range hr.VirtualNodes {
if vn.Node.ID != nodeID {
virtualNodes = append(virtualNodes, vn)
}
}
hr.VirtualNodes = virtualNodes
}
查询的时候,我们先找到对应的虚拟节点,然后再根据虚拟节点找到对应的物理节点
func (hr *HashRing) GetNode(key string) *Node {
hr.mu.Lock()
defer hr.mu.Unlock()
iflen(hr.VirtualNodes) == 0 {
returnnil
}
hash := hr.hash([]byte(key))
idx := sort.Search(len(hr.VirtualNodes), func(i int)bool {
return hr.VirtualNodes[i].Hash >= hash
})
if idx == len(hr.VirtualNodes) {
idx = 0
}
return hr.VirtualNodes[idx].Node
}
最后我们来看看,业务如何使用 这个hash_ring
type KVSystem struct {
hashRing *HashRing
kvStores map[string]*kvstorage.KVStore
}
funcNewKVSystem(nodes int) *KVSystem {
hashRing := NewHashRing(crc32.ChecksumIEEE)
for i := 0; i < nodes; i++ { // init node
node := &Node{
ID: fmt.Sprintf("Node%d", i),
Addr: fmt.Sprintf("192.168.1.%d", i+1),
}
hashRing.AddNode(node)
}
kvStores := make(map[string]*kvstorage.KVStore) //init storage
for id := range hashRing.Nodes {
kvStores[id] = kvstorage.NewKVStore()
}
return &KVSystem{
hashRing: hashRing,
kvStores: kvStores,
}
}
func(kv *KVSystem) Get(key string) (string, bool) { //get value
node := kv.hashRing.GetNode(key)
return kv.kvStores[node.ID].Get(key)
}
func(kv *KVSystem) Set(key string, value string) { // set value
node := kv.hashRing.GetNode(key)
kv.kvStores[node.ID].Set(key, value)
}
func(kv *KVSystem) Delete(key string) {
node := kv.hashRing.GetNode(key)
kv.kvStores[node.ID].Delete(key)
}
// DeleteNode 需要将存储在节点上的数据重新分配。
func(kv *KVSystem) DeleteNode(nodeID string) {
allData := kv.kvStores[nodeID].GetAll()
kv.hashRing.RemoveNode(nodeID)
delete(kv.kvStores, nodeID)
for key, value := range allData {
kv.Set(key, value)
}
}
func(kv *KVSystem) AddNode() {
node := &Node{
ID: fmt.Sprintf("Node%d", len(kv.hashRing.Nodes)),
Addr: fmt.Sprintf("192.168.1.%d", len(kv.hashRing.Nodes)+1),
}
kv.hashRing.AddNode(node)
kv.kvStores[node.ID] = kvstorage.NewKVStore()
}
这样我们就实现了一个最简单的基于一致性hash的kv 存储,是不是特别简单? 但是它却支撑了我们整个网络世界的运转。
Consistent_hashing[3]
[1]medium: https://medium.huizhou92.com/
[2]https://github.com/hxzhouh/blog-example/tree/main/Distributed/consistent_hashing
[3]Consistent_hashing: https://en.wikipedia.org/wiki/Consistent_hashing