目录

一、简介

二、扩容思路

三、ConcurrentHashMap扩容源码阅读

三、总结


一、简介

在ConcurrentHashMap中,比较复杂部分就是其扩容机制,因为涉及到多个线程分工合作完成数据迁移和key的rehash操作。

二、扩容思路

ConcurrentHashMap扩容一般分为两个步骤:

  • 【a】Node<K,V>[] table数组的扩容,一般是扩大到原来数组大小的两倍;
  • 【b】key的rehash以及数据的迁移:因为计算key在桶中的索引index跟数组的大小有关,现在数组大小扩大了,那么相应的数组索引也可能发生变化,这就是rehash。所谓数据迁移,就是将原来table数组的各个槽中的节点重新分配到新创建的nextTable中。

注意,ConcurrentHashMap在rehash的时候,并不会重新计算每个key的hash值,而是利用了一种很巧妙的方式。我们都知道ConcurrentHashMap内部的table数组的大小必须为2的幂次,原因是让key均匀分布,减少hash冲突。

还有就是,当table数组的大小为2的幂次时,我们通过下面的方式计算出来的索引index:

key.hash & table.length-1

这样在table扩容到两倍大小时,新的索引要么在原来的位置i,要么是i+n。

举个例子,假设扩容前table数组大小为16,有两个key:

length-1=15: 0000 0000 0000 0000 0000 0000 0000 1111

key1("A")的hash:0000 0000 0000 0000 0000 0000 0100 0001

key2("B")的hash:0000 0000 0000 0000 0000 0000 0100 0010

=======================================================================

&运算后key1: 0000 0000 0000 0000 0000 0000 0000 0001 = 索引为1

&运算后key2: 0000 0000 0000 0000 0000 0000 0000 0010 = 索引为2

扩容后,table变为长度32,同样是上面两个key:

length-1=31: 0000 0000 0000 0000 0000 0000 0001 1111

key1("A")的hash:0000 0000 0000 0000 0000 0000 0100 0001

key2("B")的hash:0000 0000 0000 0000 0000 0000 0100 0010

=======================================================================

&运算后key1: 0000 0000 0000 0000 0000 0000 0000 0001 = 索引还为1

&运算后key2: 0000 0000 0000 0000 0000 0000 0000 0010 = 索引还为2

由此验证了上面的:table扩容到两倍大小时,新的索引要么在原来的位置i,要么是i+n。

这种处理方式对于扩容时多个线程同时进行数据迁移操作非常有利,因为旧table的各个桶中的结点迁移不会互相影响,可以采用“分工合作”的方式,将整个table数组划分为很多区间部分,每一部分包含一定区间的桶,每个数据迁移线程处理各自区间中的结点。

三、ConcurrentHashMap扩容源码阅读

接下来,我们看看ConcurrentHashMap是什么情况下会发生扩容。通过上一节文章,我们知道了:

当链表中的节点数量超过一定的阈值(通常为8)时,会发生链表转换为红黑树结构。

if (binCount != 0) {if (binCount >= TREEIFY_THRESHOLD)treeifyBin(tab, i);if (oldVal != null)return oldVal;break;
}

其中转换方法就是:treeifyBin(tab, i):

/*** 链表转换为红黑树的主要方法.*/
private final void treeifyBin(Node<K,V>[] tab, int index) {Node<K,V> b; int n, sc;if (tab != null) {//这里可以看到,链表转换为红黑树结构不单单只是链表节点数量超出阈值8//第二重判断:table的容量是否小于64,如果小于64, 直接进行table扩容,不会发生红黑树转换//因此链表->红黑树 ,不一定链表节点数量超过阈值就发生。if ((n = tab.length) < MIN_TREEIFY_CAPACITY)//table数组扩容重要方法tryPresize(n << 1);          else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {  //table的容量大于等于64时,链表将转换为红黑树//锁住table[index]链表头节点synchronized (b) {//再次判断,防止table[i]被其他线程修改if (tabAt(tab, index) == b) {TreeNode<K,V> hd = null, tl = null;//循环遍历链表,将每个Node节点转换为TreeNode树节点for (Node<K,V> e = b; e != null; e = e.next) {//构建TreeNode树节点TreeNode<K,V> p =new TreeNode<K,V>(e.hash, e.key, e.val,null, null);if ((p.prev = tl) == null)//p作为头节点hd = p;else//链接上一次遍历的节点tl.next = p;tl = p;}//将树节点链接到TreeBin节点setTabAt(tab, index, new TreeBin<K,V>(hd));}}}}
}

从上面的代码可以看到,如果table长度小于64时,不会发生链表转换为红黑树,而是会调用tryPresize方法把数组长度扩大到原来的两倍。

下面我们看看tryPresize():

/*** 尝试调整table的大小以适应给定的元素数量* 扩容重要方法*/
private final void tryPresize(int size) {//如果尝试扩容的容量超过最大容量,那么无法扩容,直接取MAXIMUM_CAPACITY //如果没有超过最大容量,尝试调整为: 大于当前容量的2次幂大小int c = (size >= (MAXIMUM_CAPACITY >>> 1)) ? MAXIMUM_CAPACITY :tableSizeFor(size + (size >>> 1) + 1);int sc;//自旋一直判断while ((sc = sizeCtl) >= 0) {Node<K,V>[] tab = table; int n;//table为空的话,说明尚未初始化,所以先进行初始化if (tab == null || (n = tab.length) == 0) {n = (sc > c) ? sc : c;if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {try {if (table == tab) {@SuppressWarnings("unchecked")//创建一个长度为n的Node<K,V>[]赋值给tableNode<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];table = nt;sc = n - (n >>> 2);}} finally {sizeCtl = sc;}}}//如果已经被扩容过或者table数组已经超过最大容量,则直接退出循环else if (c <= sc || n >= MAXIMUM_CAPACITY)break;else if (tab == table) {  //进行扩容操作//返回一个随机数,标志此次int rs = resizeStamp(n);if (sc < 0) { //表明此时有别的线程正在进行扩容Node<K,V>[] nt;// 如果当前线程无法协助进行数据转移, 则退出if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||transferIndex <= 0)break;if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))//协助数据转移transfer(tab, nt);}// sc置为负数, 当前线程成为第一个执行数据转移的线程else if (U.compareAndSwapInt(this, SIZECTL, sc,(rs << RESIZE_STAMP_SHIFT) + 2))transfer(tab, null);}}
}

可以看到,协助数据迁移和自身成为第一个进行数据迁移的线程,都是调用的transfer方法来完成:

/*** 将每个bin中的节点移动或复制到新表中.* 数据迁移的重要方法*/
private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {int n = tab.length, stride;// stride表示数据迁移时,每个线程要负责旧table中的多少个桶的数据迁移// 通过cpu的数量// 假设: n = table.length = 100,cpu的数量=4, 计算得出的stride = 3 < MIN_TRANSFER_STRIDE=16if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)//说明最小区间大小就是16stride = MIN_TRANSFER_STRIDE; // 细分范围if (nextTab == null) {  // 第一次进行扩容try {@SuppressWarnings("unchecked")Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];//此处就是通过左移一位,创建一个大小为原先数组大小两倍的数组//并且赋值给新数组nextTab nextTab = nt;} catch (Throwable ex) {      //处理内存溢出(OOME)的情况sizeCtl = Integer.MAX_VALUE;return;}//赋值给扩容后新数组nextTab nextTable = nextTab;// [transferIndex-stride, transferIndex-1]表示当前线程要进行数据迁移的桶区间// [100-16, 100-1]  ->  [84,99]transferIndex = n;}int nextn = nextTab.length;// ForwardingNode结点,当旧table的某个桶中的所有节点都迁移完后,用该节点占据这个桶ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);// 标识一个桶的迁移工作是否完成,advance为true 表示可进行下一个位置的迁移.boolean advance = true;// 最后一个线程完成数据迁移后,会将该值置为trueboolean finishing = false;// i指当前处理的槽位序号,bound指需要处理的槽位边界for (int i = 0, bound = 0;;) {Node<K,V> f; int fh;// 计算本次处理的桶区间// i == transferIndex-1,bound == transferIndex-stridewhile (advance) {int nextIndex, nextBound;if (--i >= bound || finishing)advance = false;else if ((nextIndex = transferIndex) <= 0) {i = -1;advance = false;}//cas无锁算法设置 transferIndex = transferIndex - strideelse if (U.compareAndSwapInt(this, TRANSFERINDEX, nextIndex,nextBound = (nextIndex > stride ?nextIndex - stride : 0))) {bound = nextBound;i = nextIndex - 1;advance = false;}}if (i < 0 || i >= n || i + n >= nextn) {int sc;//所有桶都完成了数据迁移if (finishing) {  //清空临时对象nextTable  nextTable = null;table = nextTab;//扩容阈值设置为原来容量的1.5倍  依然相当于现在容量的0.75倍sizeCtl = (n << 1) - (n >>> 1);return;}// 利用CAS方法更新这个扩容阈值,扩容线程数减1if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {// 判断当前线程是否是本次扩容中的最后一个线程,如果不是,则直接退出if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)return;finishing = advance = true;/*** 最后一个线程要重新检查一次旧table中的所有桶,确认是否都被正确迁移到新table*/i = n; // recheck before commit}}else if ((f = tabAt(tab, i)) == null)//对应旧桶中的数据为null,不需要进行迁移,存放ForwardingNode用于占位advance = casTabAt(tab, i, null, fwd);else if ((fh = f.hash) == MOVED)  //旧桶已经迁移完成advance = true; // already processedelse {  //旧桶未迁移完成synchronized (f) {if (tabAt(tab, i) == f) {Node<K,V> ln, hn;if (fh >= 0) {  //桶的hash>0,说明是链表迁移int runBit = fh & n;Node<K,V> lastRun = f;//lastRun表示最后一个使fh & n发生变化的节点for (Node<K,V> p = f.next; p != null; p = p.next) {int b = p.hash & n;if (b != runBit) {runBit = b;lastRun = p;}}if (runBit == 0) {ln = lastRun;hn = null;}else {hn = lastRun;ln = null;}//可见循环到lastRun为止, 以lastRun所指向的节点为分界for (Node<K,V> p = f; p != lastRun; p = p.next) {//将链表拆成2个子链表ln、hnint ph = p.hash; K pk = p.key; V pv = p.val;if ((ph & n) == 0)ln = new Node<K,V>(ph, pk, pv, ln);elsehn = new Node<K,V>(ph, pk, pv, hn);}//p.hash & n等于0的节点构成一个链表ln,这些节点在新数组中的位置不变setTabAt(nextTab, i, ln);//p.hash & n等于1的节点构成一个链表hn,这些节点在新数组中的位置为i+nsetTabAt(nextTab, i + n, hn);//放置ForwardingNode用于占位setTabAt(tab, i, fwd);advance = true;}else if (f instanceof TreeBin) {  //红黑树迁移TreeBin<K,V> t = (TreeBin<K,V>)f;TreeNode<K,V> lo = null, loTail = null;TreeNode<K,V> hi = null, hiTail = null;int lc = 0, hc = 0;for (Node<K,V> e = t.first; e != null; e = e.next) {int h = e.hash;TreeNode<K,V> p = new TreeNode<K,V>(h, e.key, e.val, null, null);if ((h & n) == 0) {if ((p.prev = loTail) == null)lo = p;elseloTail.next = p;loTail = p;++lc;}else {if ((p.prev = hiTail) == null)hi = p;elsehiTail.next = p;hiTail = p;++hc;}}// 判断是否需要进行 红黑树 <-> 链表 的转换ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :(hc != 0) ? new TreeBin<K,V>(lo) : t;hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :(lc != 0) ? new TreeBin<K,V>(hi) : t;setTabAt(nextTab, i, ln);setTabAt(nextTab, i + n, hn);setTabAt(tab, i, fwd); advance = true;}}}}}
}

扩容的大体流程:

  • 新数组的长度是原来的2倍;
  • 根据不同位置的元素的结构有不同的方式;
  • 不管原来是链表结构还是树型结构,扩容以后都变成两部分,一部分是hash&n为0的,另一部分是hash&n不为0的,其中n为原数组的长度;
  • 对于那些hash&n==0的结点,它们在新数组中的位置保持不变,也就是说它们原先在旧数组中是什么位置,现在在新数组中还是什么位置;
  • 对于那些hash&n != 0的节点,它们在新数组中的位置相比于之前在旧数组中的位置是向后移动了n;
  • 每个位置在迁移的时候都加锁了;
  • 扩容后,原来在旧数组中在相同位置的结点在新数组中未必还在相同的位置;
  • 扩容后,链表没有倒置;
  • 由于迁移到新数组中时,会将原先一棵树分成两部分(跟链表一样),所以分出来的树中如果结点数小于或等于6,则转成链表;

三、总结

通过两篇ConcurrentHashMap相关的文章,我们对ConcurrentHashMap有了大概理解,ConcurrentHashMap的源码相对比较复杂,其中涉及红黑树那一块也是很复杂,笔者暂且先略过这一块内容,后面再回来琢磨琢磨。以上仅是笔者的学习上的一些总结,如有不对之处,还请大家帮忙指正。

参考资料:

https://www.cnblogs.com/cjsblog/p/10017911.html

https://blog.csdn.net/programmer_at/article/details/79715177

https://www.jianshu.com/p/487d00afe6ca

并发编程学习之ConcurrentHashMap扩容机制相关推荐

  1. 学习笔记(34):Python网络编程并发编程-异步调用与回调机制

    立即学习:https://edu.csdn.net/course/play/24458/296452?utm_source=blogtoedu 1.知识点:(详细见代码注释) 1)同步调用: res1 ...

  2. Java高并发编程学习(三)java.util.concurrent包

    简介 我们已经学习了形成Java并发程序设计基础的底层构建块,但对于实际编程来说,应该尽可能远离底层结构.使用由并发处理的专业人士实现的较高层次的结构要方便得多.要安全得多.例如,对于许多线程问题,可 ...

  3. java中解决脏读_java并发编程学习之脏读代码示例及处理

    使用interrupt()中断线程     当一个线程运行时,另一个线程可以调用对应的Thread对象的interrupt()方法来中断它,该方法只是在目标线程中设置一个标志,表示它已经被中断,并立即 ...

  4. libevent c++高并发网络编程_高并发编程学习(2)——线程通信详解

    前序文章 高并发编程学习(1)--并发基础 - https://www.wmyskxz.com/2019/11/26/gao-bing-fa-bian-cheng-xue-xi-1-bing-fa-j ...

  5. 高并发编程学习(2)——线程通信详解

    前序文章 高并发编程学习(1)--并发基础 - https://www.wmyskxz.com/2019/11/26/gao-bing-fa-bian-cheng-xue-xi-1-bing-fa-j ...

  6. java并发编程学习一

    java并发编程学习一 什么是进程和线程? 进程是操作系统进行资源分配的最小单位 进程跟进程之间的资源是隔离的,同一个进程之中的线程可以共享进程的资源. 线程是进程的一个实体,是CPU 调度和分派的基 ...

  7. java公平锁和非公平锁_java并发编程学习之再谈公平锁和非公平锁

    在java并发编程学习之显示锁Lock里有提过公平锁和非公平锁,我们知道他的使用方式,以及非公平锁的性能较高,在AQS源码分析的基础上,我们看看NonfairSync和FairSync的区别在什么地方 ...

  8. java 并发编程学习之二 ---- lock

    在Java中有两种方法实现锁机制,一种是在前一篇博客中([java7并发编程实战]-–线程同步机制:synchronized)介绍的synchronized,而另一种是比synchronized更加强 ...

  9. 徐无忌并发编程笔记:无锁机制CAS及其底层实现原理?

    徐无忌并发编程笔记:无锁机制CAS及其底层实现原理? 完成:第一遍 1.什么是CAS算法? compare and swap:比较与交换,是一种有名的无锁算法 CAS带来了一种无锁解决线程同步,冲突问 ...

  10. java并行任务,Java 并发编程学习(五):批量并行执行任务的两种方式

    Java 并发编程学习(五):批量并行执行任务的两种方式 背景介绍 有时候我们需要执行一批相似的任务,并且要求这些任务能够并行执行.通常,我们的需求会分为两种情况: 并行执行一批任务,等待耗时最长的任 ...

最新文章

  1. 关于数据的级联删除和更新
  2. “治沙女杰”殷玉珍:和沙漠较量的女人
  3. WPA/WPA2安全认证加密原理详解
  4. spring mvc logback
  5. [crypto]-51-RSA私钥pem转换成der, 在将der解析出n e d p q dp dq qp
  6. linux编辑文本文件aa的命令,linux入门必须掌握的命令--文本文件编辑
  7. 方法级权限控制-基于表达式操作
  8. 如何模拟Spring bean(版本2)
  9. python 垃圾回收机制
  10. idea黑色好还是白色好_白色牛仔裤,好看又好搭
  11. 7000字整理: 全网最详细Pandas合并数据集操作总结
  12. php中global什么意思,php中global与$GLOBAL的用法及区别(转载)
  13. 26.leetcode160_intersection_of_two_linked_lists
  14. AmazeUI 图标的示例代码
  15. mysql星期几转为英文_MySQL如何获取一个指定日期所对应的的星期几(英文星期信息-dayname函数)呢?...
  16. 6月26日日志-消费记录界面实现
  17. 小程序开发如何租用服务器
  18. Hive玩得好,头发就变少
  19. ECharts之类型3D(map,bar3D,scatter3D)
  20. 前端背景图放置_CSS 背景图片排版

热门文章

  1. 高德地图如何取消订单_一文教你如何爬取高德地图
  2. LR回归原理和损失函数的推导
  3. malloc和free的常识性问题
  4. 象棋将帅不能碰面 java_为何象棋有“将帅不能碰面”的规则?原来这有一个不为人知的典故...
  5. validation 开始日期 结束日期_Spring Boot集成validation用于优雅的校验API参数的合法性...
  6. DoubleArrayTrie详解
  7. 做Data Mining,其实大部分时间都花在清洗数据
  8. POJ 3667 Hotel (线段树区间合并)
  9. Matrix Cookbook 公式推导
  10. 第六章 静电场中的导体和电介质