目录
附:更这个系列感觉自己像是又挖了一个坑?,不过趁自己刚好工作不太忙,有空闲期,静下心来研究学习源码也是一件很值得做的事,自己尽量会把这个坑填完?。
HashMap 作为我们经常使用的 Java 集合工具类,无论是学习研究,帮助自己更上一层楼,还是职场面试等方面,都有理由去深入研究。
其中 JDK 7 和 JDK 8 HashMap 变化较大。所以这里会分为几部分来讲:
简单来说就是:数组 + 链表 结构。
HashMap 会将我们传入的 key 和 value 封装成一个节点对象 Entry(key, value)。
简单实现过程伪代码:
// 计算数组下标
int hashcode = hash(key);
int index = hashcode % table.length;
// 将新的节点赋值到原来的头节点并移动新的头节点(因为是链表结构,所以只需要移动头节点便能移动整个链表)
// 做了两件事:1. 插入头部,2. 移动头节点
table[index] = new Entry(key, value, table[index]);
所以一个完整的 HashMap 的结构如下所示:
源代码:
/**
* put 方法,添加元素
*/
public V put(K key, V value) {
// 判断是否为空
if (table == EMPTY_TABLE) {
// 为空进行初始化
inflateTable(threshold);
}
// 可以看到 key 可以为空
if (key == null)
return putForNullKey(value);
int hash = hash(key);
int i = indexFor(hash, table.length);
for (Entry<K,V> e = table[i]; e != null; e = e.next) {
Object k;
// 即 put 的 key 已经存在的话,那么将会覆盖旧值,,并返回旧的 value
if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
V oldValue = e.value;
e.value = value;
e.recordAccess(this);
return oldValue;
}
}
modCount++;
// 添加新的 entry 方法
addEntry(hash, key, value, i);
return null;
}
以伪代码简单说明:
int hashcode = hash(key);
int index = hashcode % table.length;
通过计算 key 的 hashcode 值,然后通过取余操作,得到数组下标,再遍历数组下标下的链表,如果 key 相同,便返回 key 的 value。
源代码:
/**
* 查询 key 的方法
*/
final Entry<K,V> getEntry(Object key) {
if (size == 0) {
return null;
}
int hash = (key == null) ? 0 : hash(key);
for (Entry<K,V> e = table[indexFor(hash, table.length)];
e != null;
e = e.next) {
Object k;
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
}
return null;
}
在讲解这两个问题前,补充一个知识点:
java中有三种移位运算符 << : 左移运算符,num << 1,相当于 num 乘以 2 >> : 右移运算符,num >> 1,相当于 num 除以 2 >>> : 无符号右移,忽略符号位,空位都以 0 补齐
在初始化 HashMap 时,我们可以看到初始化容量大小都为 2 的次方数,所以为什么要 2的次方数?
如下面这段代码通过减一和左移一位((number - 1) << 1
) 的操作,查找比 number 大且相近的 2 的次方数
private static int roundUpToPowerOf2(int number) {
// assert number >= 0 : "number must be non-negative";
return number >= MAXIMUM_CAPACITY
? MAXIMUM_CAPACITY
: (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1;
}
这个就跟我们获取元素数组下标有关了:
/**
* 返回数组下标
*/
static int indexFor(int h, int length) {
// 与操作,之所以要减 1,是为了保证与操作 (length -1) 的低位都是1,这样与 hashcode 相与后取值范围才是符合要求的。
// 奇数的话满足高位为 0,低位为 1,保证最大范围。如 15 : 0000 1111。相与操作的时候后四位都将是hashcode的值。
return h & (length-1);
}
当容量一定是 2^n 时,h & (length - 1) == h % length,它俩是等价不等效的,位运算效率非常高。
在进行 hash 运算时时,可以看到 hash 方法中有右移和异或操作,那么为什么要右移以及异或?
/**
* hash 操作
*/
final int hash(Object k) {
int h = hashSeed;
if (0 != h && k instanceof String) {
return sun.misc.Hashing.stringHash32((String) k);
}
// 得到哈希码
h ^= k.hashCode();
// 右移和异或操作
// 这是是为了增加散列性(让高位参与运算)
// 比如 hashcode 算出来的为 0110 0111,向右移4位后变成 0000 0110,两两异或后再与原来的 hashcode 参与运算,算出的值即为最终的 hashcode,
// 这样原来的 hashcode 高四位和第四位都参与运算了,增强了散列性。
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
^ 为异或符号其计算机符号为 xor,相同为 0,相异为 1,>>> 为右移动符号,左侧补零。进行右移和异或操作是为了增加散列性。
HashMap 使用 transfer
扩容方法进行扩容时链表中的元素节点顺序被相互调换,原来数组和扩容后的数组链表中的元素位置刚好是反过来的,这也是导致出现死锁的根本原因(将原来链表的元素通过指针移动到新的 table 中时会出现死循环 -- 循环链表)
ConcurrentHashMap
HashMap 在 JDK 1.8 中增加了红黑树,不再只是以链表的形式存储,当链表长度大于或等于8时,就将链表改为红黑树,增加了查询效率。
/**
* put 方法
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
// table 是否为空,胃为空创建新 table
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 数组指定下标位置是否为空,为空则赋予空节点
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 判断新插入的节点key 和原有节点 key 是否是相等的,相等直接替换后,return 旧 value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果不相等,判断是否为树节点(把新节点放到红黑树中)
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 如果不是树结构,那么就是链表结构,跟 JDK 1.7 一样的操作
// ++binCount 为遍历链表操作
for (int binCount = 0; ; ++binCount) {
// 当为 null 时,即遍历到了尾节点
if ((e = p.next) == null) {
// 将节点插入尾部(跟1.7 不一样,1.7 是插入到头部),避免扩容时发生死锁(即死循环)
p.next = newNode(hash, key, value, null);
// TREEIFY_THRESHOLD 是树化的阈值且其值为8
// 这里要注意:我们要插入的节点 p 是还没有加到 binCount 中的
// 也就是说这里虽然 binCount>=7 就可以树化,其实真正的树化
// 条件是链表中元素个数大于等于 8
if (binCount >= TREEIFY_THRESHOLD - 1)
treeifyBin(tab, hash);
break;
}
// 在遍历链表的过程中也会查找有没有相同的 key,有的话 break,执行存在 key 的操作。
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 已经存在 key
if (e != null) {
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 判断是否需要扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
get 方法和 JDK 1.7 中的基本一致:
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
// 数组不为空,并且数组的元素大于 0,同时定位的位置元素还不为空
if ((tab = table) != null && (n = tab.length) > 0 &&(first = tab[(n - 1) & hash]) != null) {
// 检查第一个元素是否是要找的元素,是的话返回
if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 第一个元素不是要找的元素,而且后面还存在元素,那么判断是否为树结构
if (first instanceof TreeNode)
// 是树,按照树获取节点方法获取
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
// 是链表结构,循环链表拿到元素
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
原来数组元素移动到扩容后新数组的元素位置:
JDK 1.8 中,当 hashcode 16 进制的高末位是 0 的话,扩容后的值还是原来相与操作的值,如果高末位为 1:
扩容后的 index = index + oldTable.length;
resize() 方法中这样说明:
newTab[j + oldCap] = hiHead;
这也是与 JDK 7 中的不同。(JDK 1.7 中是循环数组然后通过改变当前数组下的链表指针移动到新扩容的数组中去的)
HashTable 跟 HashMap 的不同之处是:
HashTable 的每个方法都进行了加锁:synchronized
锁太大了,性能不高。
JDK 1.7 的 ConcurrentHashMap 中使用了分段锁:对 table 进行分组,以组为单位进行加锁。
所以有两个数组:
根据并发等级初始化 segment 大小,这里的 segment[] 和 segment.HashEntry[] 容量大小同样都是 2 的次方数
public ConcurrentHashMap(int initialCapacity,
float loadFactor, int concurrencyLevel) {
if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
throw new IllegalArgumentException();
if (concurrencyLevel > MAX_SEGMENTS)
concurrencyLevel = MAX_SEGMENTS;
int sshift = 0;
// 根据 concurrencyLevel 并发等级算 ssize,默认并发等级是 16
int ssize = 1;
while (ssize < concurrencyLevel) {
++sshift;
// 左移一位,即 2 的次方数操作(1 -> 2, 2 -> 4, 4 -> 8, 8 -> 16)
ssize <<= 1;
}
this.segmentShift = 32 - sshift;
this.segmentMask = ssize - 1;
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
// 算出每个 Segment 下的 table
int c = initialCapacity / ssize;
if (c * ssize < initialCapacity)
++c;
int cap = MIN_SEGMENT_TABLE_CAPACITY;
// 如果不是 2 的次方数,那么就又会进行左移操作
while (cap < c)
cap <<= 1;
// 初始化第一个 Segment
Segment<K,V> s0 =
new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
(HashEntry<K,V>[])new HashEntry[cap]);
Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];
UNSAFE.putOrderedObject(ss, SBASE, s0);
this.segments = ss;
}
public V put(K key, V value) {
Segment<K,V> s;
if (value == null)
throw new NullPointerException();
int hash = hash(key);
// Segments 的下标,将 Segment 取出来
int j = (hash >>> segmentShift) & segmentMask;
// 如果 Segment 为空,则执行 ensureSegment(j) 方法
if ((s = (Segment<K,V>)UNSAFE.getObject
(segments, (j << SSHIFT) + SBASE)) == null)
s = ensureSegment(j);
return s.put(key, hash, value, false);
}
private Segment<K,V> ensureSegment(int k) {
final Segment<K,V>[] ss = this.segments;
long u = (k << SSHIFT) + SBASE; // raw offset
Segment<K,V> seg;
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
Segment<K,V> proto = ss[0]; // use segment 0 as prototype
int cap = proto.table.length;
float lf = proto.loadFactor;
int threshold = (int)(cap * lf);
HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) { // recheck
Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
== null) {
if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
break;
}
}
}
return seg;
}
该方法判断 k 位置 的 Segment 是否为空,为空创建一个 新的 Segment,不为空返回存在的 Segment 。
我们可以点进去看 Segment 对象,发现和 HashMap 高度相似,只是 Segments 每一个方法上都加了一把锁。
所以也就是在 Segment 对象的 put 方法中,将元素放到 Segment 下的 table 中。
所以 Segment 对象可以理解为一个小的 HashMap,只是在使用前加了一把锁,使用后再进行解锁。
JDK 1.8 中的 ConcurrentHashMap 很多操作和 JDK 1.7 中差不多,这里只是讲一下不同的地方。
JDK 1.8 中是对 table 的每一个下标的头节点加锁,不再使用 segment
final V putVal(K key, V value, boolean onlyIfAbsent) {
if (key == null || value == null) throw new NullPointerException();
// hash 运算
int hash = spread(key.hashCode());
int binCount = 0;
// 循环 table
for (Node<K,V>[] tab = table;;) {
Node<K,V> f; int n, i, fh;
// table 为空,初始化 table
if (tab == null || (n = tab.length) == 0)
tab = initTable();
// table不为空,下标位置元素为空,new Node 创建新节点操作
else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
if (casTabAt(tab, i, null,
new Node<K,V>(hash, key, value, null)))
break;
}
// 并发扩容,如果发现当前 ConcurrentHashMap 正在扩容,那么该线程将停止 put 操作,帮助 ConcurrentHashMap 转移元素
else if ((fh = f.hash) == MOVED)
tab = helpTransfer(tab, f);
else {
// 下标位置元素不为空
V oldVal = null;
// 对当前数组下标链表头节点的元素加锁
synchronized (f) {
if (tabAt(tab, i) == f) {
if (fh >= 0) {
binCount = 1;
for (Node<K,V> e = f;; ++binCount) {
K ek;
if (e.hash == hash &&
((ek = e.key) == key ||
(ek != null && key.equals(ek)))) {
oldVal = e.val;
if (!onlyIfAbsent)
e.val = value;
break;
}
Node<K,V> pred = e;
if ((e = e.next) == null) {
pred.next = new Node<K,V>(hash, key,
value, null);
break;
}
}
}
else if (f instanceof TreeBin) {
Node<K,V> p;
binCount = 2;
if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
value)) != null) {
oldVal = p.val;
if (!onlyIfAbsent)
p.val = value;
}
}
}
}
if (binCount != 0) {
if (binCount >= TREEIFY_THRESHOLD)
treeifyBin(tab, i);
if (oldVal != null)
return oldVal;
break;
}
}
}
addCount(1L, binCount);
return null;
}
然后还是 HashMap 的那套逻辑:
由于属性和方法太多,我将一些属性和方法的注释上传到 GitHub 了,欢迎查看: