关于 Java 同步工具和组合类的线程安全性分析
何为线程安全的类?
一般来说,我们要设计一个线程安全的类,要从三个方面去考虑:
构成状态的所有变量。比如某个域是集合类型,则集合元素也构成该实例的状态。
某些操作所隐含的不变性条件。
变量的所有权,或称它是否会被发布。
基于条件的同步策略
不变性条件取决于类的语义,比如说计数器类的 counter
属性被设置为 Integer
类型,虽然其域值在 Integer.MIN_VALUE
到 Integer.MAX_VALUE
之间,但是它的值必须非负。即:随着计数的进行, conuter >= 0
总是成立。
除了不变性条件之外,一些操作还需要通过后验条件,以此判断状态的更改是否有效。比如一个计数器计到 17 时,它的下一个状态只可能是 18。这实际涉及到了对原先状态的 "读 - 改 - 写" 三个连续的步骤,典型的如自增 ++
等。"无记忆性" 的状态是不需要后验条件的,比如每隔一段时间测量的温度值。
先验条件可能是更加关注的问题,因为 "先判断后执行" 的逻辑到处存在。比如说对一个列表执行 remove 操作时,首先需要保证列表是非空的,否则就应该抛出异常。
在并发环境下,这些条件均可能会随着其它线程的修改而出现失真。
状态发布与所有权
在许多情况下,所有权和封装性是相互关联的。比如对象通过 private
关键字封装了它的状态,即表明实例独占对该状态的所有权 ( 所有权意味控制权 )。反之,则称该状态被发布。被发布的实例状态可能会被到处修改,因此它们在多线程环境中也存在风险。
容器类通常和元素表现出 "所有权" 分离的形式。比如说一个声明为 final
的列表,客户端虽然无法修改其本身的引用,但可以自由地修改其元素的状态。这些事实上被发布的元素必须被安全地共享。这要求元素:
自身是事实不可变的实例。
线程安全的实例。
被锁保护。
实例封闭
大多数对象都是组合对象,或者说这些状态也是对象。对组合类的线程安全性分析大致分为两类:
如果这些状态线程不安全,那应该如何安全地使用组合类?
即使所有的状态都线程安全,是否可以推断组合类也线程安全?或者说组合类是否还需要额外的同步策略?
对于第一个问题,见下方的 Bank
代码,它模拟了一个转账业务:
虽然 amount_A
和 amount_B
本身作为普通的 Integer
类型并不是线程安全的,但是它们具备线程安全的语义:
也可以理解成: Bank
是为两个 Integer
状态提供线程安全性的容器。在此处,同步策略由 synchronized
内置锁实现。
编译器会在 synchronized 的代码区前后安插 monitorenter
和 monitorexit
字节码表示进入 / 退出同步代码块。Java 的内置锁也称之监视器锁,或者监视器。
至于第二个问题,答案是:看情况,具体地说是分析是否存在不变性条件,在这里,它指代在转账过程当中,a 和 b 两个账户的余额之和应当不变。如果使用原子类型保护 amount_A
和 amount_B
的状态,那么是否就可以撤下 transaction()
方法上的内置锁了?
transaction()
方法现在失去了锁的保护。这样,某线程 A 在执行交易的过程中,另一个线程 B 也可能会 "趁机" 修改 amount_B
的账目 —— 这个时机发生在线程 A 执行 amount_B.get()
之后,但在 amount_B.set()
之前。最终,B 线程的修改将被覆盖而丢失,在它看来,尽管两个状态均是原子变量,但不变性条件仍然被破坏了。
由此得到一个结论 —— 就算所有的可变状态都是原子的,我们可能仍需要在封装类的层面进一步考虑同步策略,最简单直接的就是找出封装类内的所有复合操作:
对同一个变量 ( 反复 ) 读-改-写。
修改受某个不变性条件约束的多个变量。
正确地拓展同步策略
在大部分情况下,我们不能通过直接修改类源码的形式补充同步策略。比如,普通的 List<T>
接口不保证底下的各种实现是线程安全的,但我们可以通过类似代理的方式将线程安全委托给第三方。比如:
事实上,Java 类库已经有了对应的线程安全类。通常,我们应当优先重用这些已有的类。在下方的代码块中,我们使用 Collection.synchronizedList
工厂方法创建一个线程安全的 list
对象,这样似乎就只需要为新拓展的 putIfAbsent()
方法加锁了。
但是,上述的代码是错误的。为什么?问题在于,我们使用了错误的锁进行了同步。当调用的是 add
方法时,使用的是列表对象的内置锁;但调用 putIfAbsent
方法时,我们使用的却是 ThreadUnsafeArrayList
对象的内置锁。这意味着 putIfAbsent
方法对于其它的方法来说不是原子的,因此无法确保一个线程执行 putIfAbsent
方法时,其它线程是否会通过调用其它方法修改列表。
因此,想要让这个方法正确执行,我们必须要在正确的地方上锁。
同步容器
同步容器是安全的,但在某些情况下仍然需要客户端加锁。常见的操作如:
迭代;
跳转 ( 比如,寻找下一个元素 );
条件运算,如 "若没有则 XX 操作" ( 一种常见的复合操作 );
复合操作不受同步容器保护
这里有两个线程 T1,T2 分别会以不可预测的次序执行两个代码块,它们负责删除和读取 list
中的末尾元素。我们在这里使用的是库中的同步列表,因此可以确保 size()
, remove()
, get()
方法全部是原子的。但是,当程序以 x1
, y1
, x2
, y2
的操作次序执行时,主程序最终仍然会抛出 IndexOutOfBoundsException
异常。
究其原因,两个线程 T1,T2 执行的复合操作没有受锁保护 ( 实际上就是前文银行转账的例子中犯过的错误 )。所以正确的做法是对复合操作整体加锁。比如:
同步容器的迭代问题
在迭代操作中,类似的问题也仍然存在。无论是直接的 for 循环还是 for-each 循环,对容器的遍历方式是使用 Iterator。而使用迭代器本身也是先判断 ( hasNext ) 再读取 ( next ) 的复合过程。Java 对同步容器的迭代处理是:假设某一个线程在迭代的过程中发现容器被修改过了,则立刻失败 ( 也称及时失败 ),并抛出一个 ConcurrentModificationException
异常。
类似地,想要不受打扰地迭代容器元素,我们也要在 for 循环的外面加锁,但是可能并不是一个好的主意。假如容器的规模非常大,或者每个元素的处理时间非常长,那么其它等待容器执行短作业的线程会因此陷入长时间的等待,这会带来活跃性问题。
一个可行的方法就是实现读写分离 —— 一旦有写操作,则重新拷贝一份新的容器副本,而在此期间所有读操作则仍在原来的容器中进行,实现 "读-读共享"。当读操作远多于写操作时,这种做法无疑可以大幅度地提高程序的吞吐量,见后文的并发容器 CopyOnWriteArrayList
。
警惕隐含迭代的操作
不仅是显式的 for 循环会触发迭代。比如容器的 toString
方法在底层调用 StringBuilder.append()
方法依次将每一个元素的字符串拼接起来。除此之外,包括 equals
, containsAll
, removeAll
, retainAll
,乃至将容器本身作为参数的构造器,都隐含了对容器的迭代过程。这些间接的迭代错误都有可能抛出 ConcurrentModificationException
异常。
并发容器
考虑到重量级锁对性能的影响,Java 后续提供了各种并发容器来改进同步容器的性能问题。同步容器将所有操作完全串行化。当锁竞争尤其激烈时,程序的吞吐量将大大降低。因此,使用并发容器来替代同步容器,在绝大部分情况下都算是一顿 "免费的午餐"。
ConcurrentHashMap
ConcurrentHashMap
使用了更小的封锁粒度换取了更大程度的共享,这个封锁机制称之为分段锁 ( Lock Stripping )。简单点说,就是每一个桶由单独的锁来保护,操作不同桶的两个线程不需要相互等待。好处是,在高并发环境下, ConcurrentHashMap
带来了更大的吞吐量,但问题是,封锁粒度的减小削弱了容器的一致性语义,或称弱一致性 ( Weakly Consistent )。
比如说需要在整个 Map 上计算的 size()
和 isEmpty()
方法,弱一致性会使得这些方法的计算结果是一个过期值。这考虑到是一个权衡,因为在并发环境下,这两个方法的作用很小,因为其返回值总是不断变化的。因此,这些操作的需求被弱化了,以换取其它更重要的性能优化,比如 get
, put
, cotainsKey
, remove
等。
因此,除非一部分严谨的业务无法容忍弱一致性,否则并发的 HashMap 是要比同步 HashMap 更优的选择。
CopyOnWriteArrayList
该工具在读操作远多于写操作的场合下能够提供更好的并发性能,在迭代时不需要对容器进行加锁或者复制。当发生修改时,该容器会创建并重新发布一个新的容器副本。在新副本创建之前,一切读操作仍然以旧的容器为准,因此这不会抛出 ConcurrentModificationException
问题。
相对的,如果频繁调用 add
, remove
, set
等方法,则该容器的吞吐量会大大降低,因为这些操作需要反复调用系统的 copy 方法复制底层的数组 ( 这也是没有设计 "CopyOnWriteLinkedList" 的原因,因为拷贝的效率会更低 )。同时,写入时复制的特性使得 CopyOnWriteArrayList
是弱一致性的。
阻塞队列 & 生产者 — 消费者模式
阻塞队列,简单地说,就是当队列为空时,执行 take
操作会进入阻塞状态;当队列满时,执行 put
操作也会进入阻塞状态。阻塞队列也可以分有界队列和无界队列。无界队列永远不会充满,因此执行 put
方法永远不会进入阻塞状态。但是,如果生产者的执行效率远超过消费者,那么无界队列的无限扩张最终会耗尽内存。有界队列则可以保证当队列充满时,生产者被 put
阻塞,通过这种方式来让消费者赶上工作进度。
可以用阻塞队列实现生产者 — 消费者模式,最常见的生产者 — 消费者模式是线程池与工作队列的组合。这种模式将 "发布任务" 与 "领取任务" 解耦,最大的便捷是简化了复杂的负载管理,因为生产者和消费者的执行速度并不总是相匹配的。同时,生产者和消费者的角色是相对的。比如处于流水线中游的组件,它们既作为上游的消费者,也作为下游的生产者。
Java 库已经包含了关于阻塞队列的多种实现,它自身保证 put
和 take
操作是线程安全的。
LinkedBlockingQueue
和ArrayBlockingQueue
:此两者的区别可以参考 Link 和 Array,见: ArrayBlockingQueue 和 LinkedBlockingQueue 。两者均为 FIFO 的队列。PriorityBlockingQueue
:优先级队列,当我们希望以一定次序处理任务时,它要比 FIFO 队列更实用。SynchronousQueue
:译为同步阻塞队列。这个队列事实上没有缓存空间,而是维护一组可用的线程。当队列收到消息时,它可以立刻分配一个线程去处理。但是如果没有多余的工作线程,那么调用put
或者take
会立刻陷入阻塞状态。因此,仅当有足够多的消费者,并且总是有一个消费者准备好获取交付的工作时,才适合使用同步队列。
下方的代码块是由 SynchronousQueue
实现的简易 Demo,每个线程会抢占式消费消息。
基于所有权的角度去分析,生产者 — 消费者模式和阻塞队列一起促进了 串行的线程封闭 。线程封闭对象只能由单个对象拥有,但可以通过在执行的最后发布该对象 ( 即表示之后不会再使用它 ),以表示 "转让" 所有权。
阻塞队列简化了转移的逻辑。除此之外,还可以通过 ConcurrentMap 的原子方法 remove,或者是 AtomicReference 的 compareAndSet ( 即 CAS 机制 ) 实现安全的串行线程封闭。
双端队列和工作窃取
Java 6 之后增加了新的容器类型 —— Deque 和 BlockDeque,它们是对 Queue 以及 BlockingQueue 的拓展。Deque 实现了再队列头和队列尾的高效插入和移除,具体实现包括了 ArrayDeque 和 LinkedBlockingDeque。
双端队列适用于另一种工作模式 —— 工作窃取 ( Work Stealing )。比如,一个工作线程已经完成清空了自己的任务队列,它就可以从其它忙碌的工作线程的任务队列的尾部获取队列。这种模式要比生产者 —— 消费者具备更高的可伸缩性,因为工作线程不会在单个共享的任务队列上发生竞争。
工作窃取特别适合递归的并发问题,即执行一个任务时会产生更多的工作,比如:Web 爬虫,GC 垃圾回收时的图搜索算法。
阻塞和中断方法
线程可能会被阻塞,或者是暂停执行,原因有多种:等待 I/O 结束,等待获得锁,等待从 Thread.sleep
中唤醒,等待另一个线程的计算结果。被阻塞的线程必须要在这些 "外因" 被解决之后才有机会继续执行,即恢复到 RUNNABLE ( 也称就绪 ) 状态,等待被再次调度 CPU 执行。
这段描述其实对应了 JVM 线程的两个状态:BLOCKING 和 WAITING。
BLOCKING,当线程准备进入一段新的同步代码块时,因不能获得锁而等待。
WAITING,当线程已经进入同步代码块之后,在执行的过程中因不满足某些条件而暂停。这时可以调用
waiting
方法 释放已占据的锁 。其它工作线程得以抢占此锁并执行,直到满足先验条件为真时,其它线程可以通过notifyAll
方法重新令监视此锁的所有 WAITING 线程再次争锁并继续工作。wait
/notify
/notifyAll
构成了线程之间的协商机制,见下面的代码块。
只有处于 RUNNABLE 状态的线程才会实际获得 CPU 使用权。
在 Java 中,一切会发生阻塞的方法都会被要求处理 InterruptedException
受检异常。调用阻塞方法的方法也会变成阻塞方法。线程内部有一个 boolean
类型的状态位表示中断,调用 interrupt
方法可以将该状态位标识为 true
。但是这不意味着该线程就会立刻中断:
同步工具类
Java 还提供了诸如信号量 ( Semaphore ),栅栏 ( Barrier ),以及闭锁 ( Latch ) 作为同步工具类,它们都包含了一定的结构性属性:这些状态将决定执行同步工具类的线程是执行还是等待。
闭锁
闭锁是一种同步工具类,可以延迟线程的进度直到闭锁打开。在此之前,所有的线程必须等待,而在闭锁结束之后,这个锁将永久保持打开状态。这个特性适用于 需要确保某个任务的前序任务 ( 比如初始化 ) 全部完成之后才可以执行的场合,见下方的代码:Worker 线程等待另两个初始化线程准备就绪之后输出 p
的结果。
FutureTask 也可以拿来做闭锁,它实现了 Future 的语义,表示一个抽象的可生成结果的计算,一般需要由线程池驱动执行,表示一个异步的任务。
Runnable 接口表示无返回值的计算,Callable 代表有返回值的计算。
信号量
计数信号量用于控制某个资源的同时访问数量,通常用于配置有容量限制的资源池,或称有界阻塞容器。Semaphore 管理一组许可,线程在需要时首先获取许可,并在操作结束之后归还许可。如果许可数量被耗尽,那么线程则必须要阻塞到其它任意线程归还许可 ( 默认情况下遵循 Non-Fair 策略 ) 为止。特别地,当信号量的许可数为 1 时,则可认为是不可重入的互斥锁。
下面是一个利用信号量 + 同步容器实现的简易阻塞队列:
栅栏
栅栏 ( Barrier ) 类似于闭锁,同样都会阻塞到某一个事件发生。闭锁强调等待某个事件发生之后再执行动作,而栅栏更强调在某个事件发生之前等待其它线程。它可用于实现一些协议:"所有人在指定的时间去会议室碰头,等到所有的人到齐之后再开会",比如数据库事务的两阶段提交。
Java 提供了一个名为 CyclicBarrier
的栅栏,它指定了 N 个工作线程 反复地 在栅栏位置汇集。在某线程执行完毕之后,调用 await()
方法阻塞自身,以等待其它更慢的线程到达栅栏位置。当设定的 N 个线程均调用 await()
之后,栅栏将打开,此时所有的线程将可以继续向下执行代码,而栅栏本身的状态会重置,以便复用 ( 因而命名为 Cyclic- )。
见下面的代码,4 个线程并行执行初始化工作 ( 以随机时间的 sleep
模拟延迟 ),并等待所有线程初始化完毕之后同时打印信息。
在不涉及 IO 操作和数据共享的计算问题当中,线程数量为 NCPU 或者 NCPU + 1 时会获得最优的吞吐量,更多的线程也不会带来带来帮助,甚至性能还会下降,因为 CPU 需要频繁的切换上下文。
一旦线程成功地到达栅栏,则 await()
方法会其标记为 "子线程"。 CyclicBarrier
的构造器还接受额外的 Runnable 接口做回调函数,当所有线程全部到达栅栏之后, CyclicBarrier
会从子线程当中挑选出一个领导线程去执行它 ( 即,每一轮通过栅栏之后,它都会被执行且仅一次 ),我们可以在此实现日志记录等操作。
在并行任务中构建高效的缓存
为了用简单的例子说明问题,我们在这里特别强调并行 ( Parallel ) 任务,这些任务的计算过程是纯粹 ( Pure ) 的 —— 这样的函数被称之纯函数。无论它们何时被调用,被哪个线程调用,同样的输入永远得到同样的输出。纯函数不和外部环境交互,因此自然也就不存在竞态条件。
一个非常自然的想法是使用缓存 ( 或称记忆机制 Memorized ) 避免重复的运算。在纯粹的映射关系中,固定的输入总是对应固定的输出,因此使用 K-V 键值对来记忆结果再好不过了。我们基于 HashMap 给出最简单的一版实现,然后再探讨如何改进它们。
尽管我们打算将 MapCache 用于无竞态条件的并行任务,但 getResult()
方法仍然加上了同步锁,因为 HashMap 本身不是线程安全的, cache
需要以安全的方式被并发访问。然而,这种做法无疑会使得 getResult()
方法变得十分笨重,因为原本可以并行的慢操作 PURE.slowOperation()
也被锁在了代码块内部。
最先想到的是使用更加高效的 ConcurrentHashMap
类取代线程不安全的 HashMap
,以获得免费的多线程性能提升:
同时,我们这一次取消掉了 getResult()
上的同步锁。这样,多线程可以并行地执行慢操作,只在修改 cache
时发生竞争。但这个缓存仍有一些不足 —— 当某个线程 A 在计算新值时 ( 即这 500ms 之内 ),其它线程并不知道。因此,多个线程有可能会计算同一个新值,甚至导致其它的计算任务无法进行。
针对这个问题,我们再一次提出改进。不妨让 cache
保存 "计算过程",而非值。这样,工作线程将有三种行为:
缓存中没有此计算任务,注册并执行。
缓存中有此计算任务,但未完毕,当前线程阻塞 ( 将 CPU 让给其它需要计算的线程 )。
缓存中有此计算任务,且已计算完毕,直接返回。
回顾前文在闭锁中提到的 FutureTask<V>
类型,它适合用于当前的实现,见下方的代码:
MapCacheV3
的实现已经近乎完美了。唯一不足的是:我们对 cache
的操作仍然是 "先判断后执行" 的复合操作,但现在 getResult
并没有同步锁的保护。两个线程仍然同时调用 cache.get()
并判空,并开始执行重复的计算。
下面的版本给出了最终的解决方案:使用 ConcurrentMap
的 putIfAbsent()
原子方法修复可能重复添加计算任务的问题。
值得注意的是,一旦 cache
存储的是计算任务而非值,那么就可能存在缓存污染的问题。一旦某个 FutureTask 的计算被取消,或者失败,应当及时将它从缓存中移除以保证将来的计算成功,而不是放任其驻留在缓存内部返回失败的结果。
缓存思想几乎应用在各个地方。比如在 Web 服务中,用户的数据往往不会总是直接来自数据库,而是 Redis 这样的消息中间件。在实际的应用环境下,还有更加复杂的问题需要被考虑到,比如缓存内容过时 ( expired ),或者是定期清理缓存空间等。
下面的并发编程中列举了安全并发的实用规则:
评论