首先声明,本文是伪源码分析。主要是基于状态机自己实现一个简化的并发队列,有助于读者掌握并发程序设计的核心——状态机;最后对源码实现略有提及。
ConcurrentLinkedQueue不支持阻塞,没有BlockingQueue那么易用;但在中等规模的并发场景下,其性能却比BlockingQueue高不少,而且相当稳定。同时,ConcurrentLinkedQueue是学习CAS的经典案例。根据github的code results排名,ConcurrentLinkedQueue(164k)也十分流行,比我想象中的使用量大多了。非常值得一讲。
对于状态机和并发程序设计的基本理解,可以参考源码|并发一枝花之BlockingQueue,建议第一次接触状态机的同学速读参考文章之后,再来阅读此文章。
JDK版本:oracle java 1.8.0_102
准备知识:CAS
读者可以跳过这部分,后面讲到offer()方法的实现时再回顾。
悲观锁与乐观锁
悲观锁:假定并发环境是悲观的,如果发生并发冲突,就会破坏一致性,所以要通过独占锁彻底禁止冲突发生。有一个经典比喻,“如果你不锁门,那么捣蛋鬼就回闯入并搞得一团糟”,所以“你只能一次打开门放进一个人,才能时刻盯紧他”。
乐观锁:假定并发环境是乐观的,即,虽然会有并发冲突,但冲突可发现且不会造成损害,所以,可以不加任何保护,等发现并发冲突后再决定放弃操作还是重试。可类比的比喻为,“如果你不锁门,那么虽然捣蛋鬼会闯入,但他们一旦打算破坏你就能知道”,所以“你大可以放进所有人,等发现他们想破坏的时候再做决定”。
通常认为乐观锁的性能比悲观所更高,特别是在某些复杂的场景。这主要由于悲观锁在加锁的同时,也会把某些不会造成破坏的操作保护起来;而乐观锁的竞争则只发生在最小的并发冲突处,如果用悲观锁来理解,就是“锁的粒度最小”。但乐观锁的设计往往比较复杂,因此,复杂场景下还是多用悲观锁。
首先保证正确性,有必要的话,再去追求性能。
CAS
乐观锁的实现往往需要硬件的支持,多数处理器都都实现了一个CAS指令,实现“Compare And Swap”的语义(这里的swap是“换入”,也就是set),构成了基本的乐观锁。
CAS包含3个操作数:
需要读写的内存位置V
进行比较的值A
拟写入的新值B
当且仅当位置V的值等于A时,CAS才会通过原子方式用新值B来更新位置V的值;否则不会执行任何操作。无论位置V的值是否等于A,都将返回V原有的值。
一个有意思的事实是,“使用CAS控制并发”与“使用乐观锁”并不等价。CAS只是一种手段,既可以实现乐观锁,也可以实现悲观锁。乐观、悲观只是一种并发控制的策略。下文将分别用CAS实现悲观锁和乐观锁?
我们先不讲JDK提供的实现,用状态机模型来分析一下,看我们能不能自己实现一版。
队列的状态机模型
状态机模型与是否需要并发无关,一个类不管是否是线程安全的,其状态机模型从类被实现(此时,所有类行为都是确定的)开始就是确定的。接口是类行为的一个子集,我们从接口出发,逐渐构建出简化版ConcurrentLinkedQueue的状态机模型。
队列接口
ConcurrentLinkedQueue实现了Queue接口:
public interface BlockingQueue<E> extends Queue<E> { boolean add(E e); boolean offer(E e); E remove(); E poll(); E element(); E peek(); }
需要关注的是一对方法:
offer():入队,成功返回true,失败返回false。JDK中ConcurrentLinkedQueue实现为无界队列,这里我们也只讨论无界的情况——因此,offer()方法必返回true。
poll():出队,有元素返回元素,没有就返回null。
同时,理想的线程安全队列中,入队和出队之间不应该存在竞争,这样入队的状态机模型和出队的状态机模型可以完全解耦,互不影响。
对我们的状态机作出两个假设:
假设1:只支持这入队、出队两种行为。
假设2:入队、出队之间不存在竞争,即入队模型与出队模型是对偶、独立的两个状态机。
从而,可以先分析入队,再参照分析出队;然后可尝试去掉假设2,看如何完善我们的实现来保证假设2成立;最后看看真·神Doug Lea如何实现,学习一波。
状态机定义
现在基于假设1和假设2,尝试定义入队模型的状态机。
我们构造一个简化的场景:存在2个生产者P1、P2,同时触发入队操作。
状态集
如果是单线程环境,入队操作将是这样的:
// 准备newNode.next = null; curTail = tail;// 入队前assert tail == curTail && tail.next == null; // 状态S1// 开始入队tail.next = newNode; // 事件E1// 入队中assert tail == curTail && tail.next == newNode; // 状态S2tail = tail.next; // 事件E2// 结束入队// 入队后assert tail == newNode && tail.next == null; // 状态S3,合并到状态S1
该过程涉及对两个域的修改:tail.next、tail。则随着操作的进行,队列会经历2种状态:
状态S1:事件E1执行前,tail指向实际的尾节点curTail,tail.next==null。如生产者P1、P2都还没有触发入队时,队列处于状态S1;生产者P1完成入队P2还没触发入队时,队列处于状态S1。
状态S2:事件E1执行后、E2执行前,tail指向旧的尾节点curTail,tail.next==newNode。
状态S3:事件E2执行后,tail指向新的尾节点newNode,tail.next==null。同状态S1,合并。
状态转换集
两个事件分别对应两个状态转换:
状态转换T1:S1->S2,即tail.next = newNode。
状态转换T2:S2->S1,即tail = tail.next。
是不是很熟悉?因为ConcurrentLinkedQueue也是队列,必然同BlockingQueue相似甚至相同。区别在于如何维护这些状态和状态转换。
自撸ConcurrentLinkedQueue
依赖CAS,两个状态转换T1、T2都可以实现为原子操作。留给我们的问题是,如何维护合法的状态转换。
入队方法offer()
入队过程需要经过两个状态转换,且这两个状态转换必须连续发生。
不严谨。“连续”并不是必要的,最后分析源码的时候会看到。不过,我们暂时使用强一致性的模型。
思路1:让同一个生产者P1连续完成两个状态转换T1、T2,保证P2不会插入进来
LinkedBlockingQueue的思路即是如此。这是一种悲观策略——一次开门只放进来一个生产者,似乎只能像LinkedBlockingQueue那样,用传统的锁putLock实现,实际上,依靠CAS也能实现:
public class ConcurrentLinkedQueue1<E> { private volatile Node<E> tail; public ConcurrentLinkedQueue1() { throw new UnsupportedOperationException("Not implement"); } public boolean offer(E e) { Node<E> newNode = new Node<E>(e, new AtomicReference<>(null)); while (true) { Node<E> curTail = tail; AtomicReference<Node<E>> curNext = curTail.next; // 尝试T1:CAS设置tail.next if (curNext.compareAndSet(null, newNode)) { // 成功者视为获得独占锁,完成了T1。直接执行T2:设置tail tail = curNext.get(); return true; } // 失败者自旋等待 } } private static class Node<E> { private volatile E item; private AtomicReference<Node<E>> next; public Node(E item, AtomicReference<Node<E>> next) { this.item = item; this.next = next; } } }
思路2:生产者P1完成状态转换T1后,P2代劳完成状态转换T2
再来分析下T1、T2两个状态转换:
T1涉及newNode,只能由封闭持有newNode的生产者P1完成
T2只涉及队列中的信息,任何持有队列的生产者都有能力完成。P1可以,P2也可以
思路1是悲观的,认为T1、T2必须都由P1完成,如果P2插入就会“搞破坏”。而思路2则打开大门,欢迎任何“有能力”的生产者完成T2,是典型的乐观策略。
public class ConcurrentLinkedQueue2<E> { private AtomicReference<Node<E>> tail; public ConcurrentLinkedQueue2() { throw new UnsupportedOperationException("Not implement"); } public boolean offer(E e) { Node<E> newNode = new Node<E>(e, new AtomicReference<>(null)); while (true) { Node<E> curTail = tail.get(); AtomicReference<Node<E>> curNext = curTail.next; // 尝试T1:CAS设置tail.next if (curNext.compareAndSet(null, newNode)) { // 成功者完成了T1,队列处于S2,继续尝试T2:CAS设置tail tail.compareAndSet(curTail, curNext.get()); // 成功表示该生产者P1完成连续完成了T1、T2,队列处于S1 // 失败表示T2已经由生产者P2完成,队列处于S1 return true; } // 失败者得知队列处于S2,则尝试T2:CAS设置tail tail.compareAndSet(curTail, curNext.get()); // 如果成功,队列转换到S1;如果失败,队列表示T2已经由生产者P1完成,队列已经处于S1 // 然后循环,重新尝试T1 } } private static class Node<E> { private volatile E item; private AtomicReference<Node<E>> next; public Node(E item, AtomicReference<Node<E>> next) { this.item = item; this.next = next; } } }
减少无效的竞争
我们涉及的状态比较少(只有2个状态),继续看看能否减少无效的竞争,比如:
前两种实现的第一步都是CAS尝试T1,失败了就退化成一次探查(compare and swap中的compare)。发起CAS前,可能队列已经处于S2,这时CAS尝试T1就成了浪费,只需要探查即可。这有点像DCL单例的思路(面试中单例模式有几种写法?),可以直接通过tail.next判断队列是否处于S1,来完成一部分探查,以减少无效的竞争。
public class ConcurrentLinkedQueue3<E> { private AtomicReference<Node<E>> tail; public ConcurrentLinkedQueue3() { throw new UnsupportedOperationException("Not implement"); } public boolean offer(E e) { Node<E> newNode = new Node<E>(e, new AtomicReference<>(null)); while (true) { Node<E> curTail = tail.get(); AtomicReference<Node<E>> curNext = curTail.next; // 先检查一下队列状态的状态,tail.next==null表示队列处于状态S1,仅此时才有CAS尝试T1的必要 if (curNext.get() == null) { // 如果处于S1,尝试T1:CAS设置tail.next if (curNext.compareAndSet(null, newNode)) { // 成功者完成了T1,队列处于S2,继续尝试T2:CAS设置tail tail.compareAndSet(curTail, curNext.get()); // 成功表示该生产者P1完成连续完成了T1、T2,队列处于S1 // 失败表示T2已经由生产者P2完成,队列处于S1 return true; } } // 否则队列处于处于S2,或CAS尝试T1的失败者得知队列处于S2,则尝试T2:CAS设置tail tail.compareAndSet(curTail, curNext.get()); // 如果成功,队列转换到S1;如果失败,队列表示T2已经由生产者P1完成,队列已经处于S1 // 然后循环,重新尝试T1 } } private static class Node<E> { private volatile E item; private AtomicReference<Node<E>> next; public Node(E item, AtomicReference<Node<E>> next) { this.item = item; this.next = next; } } }
注意,上述实现中,while代码块后都没有返回值。这是被编译器允许的,因为编译器可以分析出,该方法不可能运行到while代码块之后,所以while代码块后的返回值语句也是无效的。
出队方法poll()
对偶的构造一个简化的场景:存在2个消费者C1、C2,同时触发出队操作。
不需要考虑悲观策略和优化方案,我们尝试基于思路2的第一种实现撸一版基础的poll()方法。
然后,,,没撸动。想了一下,朴素链表(如LinkedList)中,直接用head表示维护头结点无法区分“已取出item未移动head指针”和“未取出item未移动head指针”(同“已取出item已移动head指针”)两种状态。所以还是写一写才知道深浅啊,碰巧前两天写了BlockingQueue的分析,dummy node正好派上用场。
队列初始化如下:
dummy = new Node(null, null);// tail = dummy; // 后面会用到// head = dummy.next; // dummy.next 表示实际的头结点,但我们不需要存储它
状态机
单线程环境的出队过程:
// 准备curDummy = dummy; curNext = curDummy.next; oldItem = curNext.item;// 出队前assert dummy == curDummy && dummy.next.item == oldItem; // 状态S1// 开始出队dummy.next.item = null; // 事件E1// 出队中assert dummy == curDummy && dummy.next.item == null; // 状态S2dummy = dummy.next; // 事件E2// 结束出队// 出队后assert dummy == curNext && dummy.next.item != null; // 状态S3,合并到状态S1
状态:
状态S1:事件E1执行前,dummy指向实际的dummy节点curDummy,dummy.next.item== oldItem。如消费者C1、C2都还没有触发出队时,队列处于状态S1;消费者C1完成入队C2还没触发出队时,队列处于状态S1。
状态S2:事件E1执行后、E2执行前,dummy指向旧的dummy节点curDummy,dummy.next.item==null。
状态S3:事件E2执行后,dummy指向新的dummy节点curNext,dummy.next.item!=null。这在本质上同状态S1是一致的,合并。
状态转换:
状态转换T1:S1->S2,即dummy.next.item = null。
状态转换T2:S2->S1,即dummy = dummy.next。
代码
public class ConcurrentLinkedQueue4<E> { private AtomicReference<Node<E>> dummy; public ConcurrentLinkedQueue4() { dummy = new AtomicReference<>(new Node<>(null, null)); } public E poll() { while (true) { Node<E> curDummy = dummy.get(); Node<E> curNext = curDummy.next; E oldItem = curNext.item.get(); // 尝试T1:CAS设置dummy.next.item if (curNext.item.compareAndSet(oldItem, null)) { // 成功者完成了T1,队列处于S2,继续尝试T2:CAS设置dummy dummy.compareAndSet(curDummy, curNext); // 成功表示该消费者C1完成连续完成了T1、T2,队列处于S1 // 失败表示T2已经由消费者C2完成,队列处于S1 return oldItem; } // 失败者得知队列处于S2,则尝试T2:CAS设置dummy dummy.compareAndSet(curDummy, curNext); // 如果成功,队列转换到S1;如果失败,队列表示T2已经由消费者P1完成,队列已经处于S1 // 然后循环,重新尝试T1 } } private static class Node<E> { private AtomicReference<E> item; private volatile Node<E> next; public Node(AtomicReference<E> item, Node<E> next) { this.item = item; this.next = next; } } }
另一种状态机
实际上,前面的讨论有意回避了一个问题——如果入队/出队操作顺序不同,我们会构造出不同的状态机。这相当于同一个类的另一种实现,不违反前面作出的声明:
状态机模型与是否需要并发无关,一个类不管是否是线程安全的,其状态机模型从类被实现(此时,所有类行为都是确定的)开始就是确定的。
继续以出队为例,假设在单线程下,采用这样的顺序出队:
// 准备curDummy = dummy; curNext = curDummy.next; oldItem = curNext.item;// 出队前assert dummy == curDummy && dummy.item == null; // 状态S1// 开始出队dummmy = dummy.next; // 事件E1// 出队中assert dummy == curNext && dummy.item == oldItem; // 状态S2dummy.item = null; // 事件E2// 结束出队// 出队后assert dummy == curNext && dummy.item == null; // 状态S3,合并到状态S1
看起来,这样的操作顺序更容易定义各状态:
状态S1:事件E1执行前,dummy指向实际的dummy节点curDummy,dummy.item == null。如消费者C1、C2都还没有触发出队时,队列处于状态S1;消费者C1完成入队C2还没触发出队时,队列处于状态S1。
状态S2:事件E1执行后、E2执行前,dummy指向新的dummy节点curNext,dummy.item == oldItem。
状态S3:事件E2执行后,dummy指向新的dummy节点curNext,dummy.item == null。显然同状态S1,合并。
状态转换:
状态转换T1:S1->S2,即dummmy = dummy.next。
状态转换T2:S2->S1,即dummy.item = null。
实现如下:
public class ConcurrentLinkedQueue5<E> { private AtomicReference<Node<E>> dummy; public ConcurrentLinkedQueue5() { dummy = new AtomicReference<>(new Node<>(null, null)); } public E poll() { while (true) { Node<E> curDummy = dummy.get(); Node<E> curNext = curDummy.next; E oldItem = curNext.item.get(); // 尝试T1:CAS设置dummmy if (dummy.compareAndSet(curDummy, curNext)) { // 成功者完成了T1,队列处于S2,继续尝试T2:CAS设置dummy.item curDummy.item.compareAndSet(oldItem, null); // 成功表示该消费者C1完成连续完成了T1、T2,队列处于S1 // 失败表示T2已经由消费者C2完成,队列处于S1 return oldItem; } // 失败者得知队列处于S2,则尝试T2:CAS设置dummy.item curDummy.item.compareAndSet(oldItem, null); // 如果成功,队列转换到S1;如果失败,队列表示T2已经由消费者P1完成,队列已经处于S1 // 然后循环,重新尝试T1 } } private static class Node<E> { private AtomicReference<E> item; private volatile Node<E> next; public Node(AtomicReference<E> item, Node<E> next) { this.item = item; this.next = next; } } }
一个trick
实现上面状态机的过程中,我想出了一个针对出队操作的trick:可以去掉dummy node,用head维护头结点+一步状态转换完成出队。
对啊,我写着写着又撸出来了。。。
去掉了dummy node,那么head.item的初始状态就是非空的,下面是简化的状态机。
单线程出队的操作顺序:
// 准备curHead = head; curNext = curHead.next; oldItem = curHead.item;// 出队前assert head == curHead; // 状态S1// 出队head = head.next; // 事件E1// 出队后assert head == curNext; // 状态S2,合并到状态S1
出队只需要尝试head后移,成功者可从旧的头结点curHead中取出item,之后curHead将被废弃;失败者再重新尝试即可。如果在尝试前就得到了item的引用,那么E1发生后,不管成功与否,在curHead上做什么都是无所谓的了,因为事实上没有任何消费者会再去访问它。
这是一个单状态的状态机,则状态:
状态S1:head指向实际的头节点curHead。队列始终处于状态S1。
状态S2:head指向新的头节点curNext。同S1,合并
状态转换:
状态转换T1:S1->S1,即head = head.next。
实现如下:
public class ConcurrentLinkedQueue6<E> { private AtomicReference<Node<E>> head; public ConcurrentLinkedQueue6() { throw new UnsupportedOperationException("Not implement"); } public E poll() { while (true) { Node<E> curHead = head.get(); Node<E> curNext = curHead.next; // 尝试T1:CAS设置head if (head.compareAndSet(curHead, curNext)) { // 成功者完成了T1,队列处于S1 return curHead.item; // 只让成功者取出item } // 失败者重试尝试 } } private static class Node<E> { private volatile E item; private volatile Node<E> next; public Node(E item, Node<E> next) { this.item = item; this.next = next; } } }
其他特殊情况
前面都是基于假设2“入队、出队无竞争”讨论的。现在需要放开假设2,看如何完善已有的实现以保证假设2成立。或者如果不能保证假设2的话,如何解决竞争问题。
根据对LinkedBlockingQueue的分析,我们得知,如果底层数据结构是朴素链表,那么队列空或长度为1的时候,head、tail都指向同一个节点(或都为null),这时必然存在竞争;dummy node较好的解决了这一问题。ConcurrentLinkedQueue4是基于dummy node的方案,我们尝试在此基础上修改。
回顾dummy node的使用方法(配合ConcurrentLinkedQueue2和ConcurrentLinkedQueue4做了调整和精简):
初始化链表时,创建dummy node:
dummy = new Node(null, null)
// head = dummy.next // head 为 null <=> 队列空
tail = dummy // tail.item 为 null <=> 队列空
在队尾入队时,tail后移:
tail.next = new Node(newItem, null)
tail = tail.next
在队头出队时,dummy后移,同步更新head:
oldItem = dummy.next.item // == head.item
dummy.next.item = null
dummy = dummy.next
// head = dummy.next
return oldItem
下面分情况讨论。
case1:队列空
队列空时,队列处于一个特殊的状态,从该状态出发,仅能完成入队相关的状态转换——通俗讲就是队列空时只允许入队操作。这时消除竞争很简单,只允许入队不允许出队即可:
public class ConcurrentLinkedQueue7<E> { private AtomicReference<Node<E>> dummy; private AtomicReference<Node<E>> tail; public ConcurrentLinkedQueue7() { Node<E> initNode = new Node<E>( new AtomicReference<E>(null), new AtomicReference<Node<E>>(null)); dummy = new AtomicReference<>(initNode); tail = new AtomicReference<>(initNode); // Node<E> head = dummy.get().next.get(); } public boolean offer(E e) { Node<E> newNode = new Node<E>(new AtomicReference<>(e), new AtomicReference<>(null)); while (true) { Node<E> curTail = tail.get(); AtomicReference<Node<E>> curNext = curTail.next; if (curNext.compareAndSet(null, newNode)) { tail.compareAndSet(curTail, curNext.get()); return true; } tail.compareAndSet(curTail, curNext.get()); } } public E poll() { while (true) { Node<E> curDummy = dummy.get(); Node<E> curNext = curDummy.next.get(); // 既可以用 dummy.next == null (head) 判空,也可以用 tail.item == null // 不过鉴于处于poll()方法中,使用 dummy.next 可读性更好 if (curNext == null) { return null; } E oldItem = curNext.item.get(); if (curNext.item.compareAndSet(oldItem, null)) { dummy.compareAndSet(curDummy, curNext); return oldItem; } dummy.compareAndSet(curDummy, curNext); } } private static class Node<E> { private AtomicReference<E> item; private AtomicReference<Node<E>> next; public Node(AtomicReference<E> item, AtomicReference<Node<E>> next) { this.item = item; this.next = next; } } }
ConcurrentLinkedQueue7需要原子的操作item和next,因此Node的item、next域都被声明为了AtomicReference。
队列空的时候:offer()方法同ConcurrentLinkedQueue2#offer(),不需要做特殊处理;poll()方法在ConcurrentLinkedQueue4#poll()的基础上,增加了32-34行的队列空检查。需要注意的是,检查必须放在队列转换的过程中,防止消费者C2第一次尝试时队列非空,但第二次尝试时队列变空(由于C1取出了唯一的元素)的情况。
case2:队列长度等于1
队列长度等于1时,入队与出队不会同时修改同一节点,这时一定不会发生竞争。分析如下。
假设存在一个生产者P1,一个消费者C1,同时触发入队/出队,队列中只有一个元素,所以只两个节点dummyNode、singleNode则此时:
assert dummy == dummyNode;assert dummy.next.item == singleNode.item;assert tail == singleNode;assert tail.next == singleNode.next;
回顾ConcurrentLinkedQueue7的实现:
poll()方法修改引用dummy、singleNode.item
offer()方法操tail、singleNode.next
因此,由于dummy node的引入,队列长度为1时,入队、出队之间天生就不存在竞争。
小结
至此,我们从最简单的场景触发,基于状态机实现了一个支持高性能offer()、poll()方法的ConcurrentLinkedQueue7。CAS的好处暂且不表,重要的是基于状态机进行并发程序设计的思想。只有抓住其状态机的本质,才能设计出正确、高效的并发类。
如果还是没有体会到状态机的精妙之处,可以抛开状态机,并自己尝试基于乐观策略实现ConcurrentLinkedQueue。(之所以要基于乐观策略,是因为悲观策略可以认为是乐观策略的是特例,容易让人忽略其状态机的本质)
JDK实现
希望看到这里,你已经理解了ConcurrentLinkedQueue的状态机本质,因为下面就不再是本文的重点。
真·神Doug Lea的实现基于一个弱一致性的状态机:允许队列处于多种不一致的状态,通过恰当的选择“不一致的状态”,能做到用户无感;虽然增加了状态机的复杂度,但也进一步提高了性能。
网上分析文章非常多,读者可自行阅读,有一定难度。本文不打算讲解Doug Lea的实现,贴出源码仅供大家膜拜。
构造方法
常用的是默认的空构造函数:
public class ConcurrentLinkedQueue<E> extends AbstractQueue<E> implements Queue<E>, java.io.Serializable { ... private transient volatile Node<E> head; private transient volatile Node<E> tail; public ConcurrentLinkedQueue() { head = tail = new Node<E>(null); } ... }
Doug Lea也使用了dummy node,不过命名为了head。初始化方法同我们实现的ConcurrentLinkedQueue7。
入队方法offer()
ConcurrentLinkedQueue7#offer()相当于ConcurrentLinkedQueue#offer()的一个特例。
public boolean offer(E e) { checkNotNull(e); final Node<E> newNode = new Node<E>(e); for (Node<E> t = tail, p = t;;) { Node<E> q = p.next; if (q == null) { if (p.casNext(null, newNode)) { if (p != t) casTail(t, newNode); return true; } } else if (p == q) p = (t != (t = tail)) ? t : head; else p = (p != t && t != (t = tail)) ? t : q; } }
具体来讲,ConcurrentLinkedQueue允许的多个状态大体是这样的:
状态S1:一致;newNode已衔接在tail.next,但tail指向倒数第1个节点
状态S2:不一致;newNode已衔接在tail.next,但tail指向倒数第2个节点
状态S3:不一致;newNode已衔接在tail.next,但tail指向倒数第3个节点
...
状态转换的规则也随之打破——不再需要连续完成T1、T2,可以连续执行多次类T1,最后执行一次类T2。
for循环中的几个分支就是在处理这些一致和不一致的状态。我们前面定义的状态机空间中只允许状态S1、S2,因此是一个子集。增加的这些不一致的状态主要是为了减少CAS次数,进一步提高队列性能,这包含两个重要意义:
降低延迟:部分入队请求不再需要走完完整的状态转换,只需要循环到tail.next.cas(null, newNode)成功。
提高吞吐:之前每一次入队请求都要设置一次tail节点;目前只需要积攒几次入队,在某个新的newNode入队时,直接尝试tail.cas(t, newNode),将tail跳跃到最新的newNode。
增加这些不一致的状态是很危险的,如S3,当队列长度为1的时候,tail与head的位置存在交叉。Doug Lea牛逼之处在于,在保证正确性的前提下,不仅通过增加状态提高了性能,还减少了实际的CAS次数。
出队方法poll()
public E poll() { restartFromHead: for (;;) { for (Node<E> h = head, p = h, q;;) { E item = p.item; if (item != null && p.casItem(item, null)) { if (p != h) updateHead(h, ((q = p.next) != null) ? q : p); return item; } else if ((q = p.next) == null) { updateHead(h, p); return null; } else if (p == q) continue restartFromHead; else p = q; } } }final void updateHead(Node<E> h, Node<E> p) { if (h != p && casHead(h, p)) h.lazySetNext(h); }
分析方法类似于offer()。注意下updateHead()。
未完
本来是想分析ConcurrentLinkedQueue源码的,没想到写完状态机就3600多字了,干货却不多。前路漫漫,源码咱下回见。
作者:猴子007
链接:https://www.jianshu.com/p/b6ec147c4653