并发编程——volatile关键字详解(一)

  • Post author:
  • Post category:其他




前言

我们一般对共享数据操作的时候,为了达到线程安全我们会使用volatile关键字去修饰一些共享数据,已达到一个数据可见性。那么今天我们就来讲一讲volatile关键字的使用。


专栏推荐:



并发编程专栏



volatile的作用



原子性

一个操作或者多个操作,要么全部执行成功,要么全部执行失败。满足原子性的操作,中途不可被中断。



可见性

多个线程共同访问共享变量时,某个线程修改了此变量,其他线程能立即看到修改后的值。



有序性

程序执行的顺序按照代码的先后顺序执行。(由于JMM模型中允许编译器和处理器为了效率,进行指令重排序的优化。指令重排序在单线程内表现为串行语义,在多线程中会表现为无序。那么多线程并发编程中,就要考虑如何在多线程环境下可以允许部分指令重排,又要保证有序性)


synchronized

关键字同时保证上述三种特性。


  • synchronized

    是同步锁,同步块内的代码相当于同一时刻单线程执行,故不存在原子性和指令重排序的问题

  • synchronized

    关键字的语义JMM有两个规定,保证其实现内存可见性:
  • 线程解锁前,必须把共享变量的最新值刷新到主内存中;
  • 线程加锁前,将清空工作内存中共享变量的值,从主内存中冲洗取值。


volatile

关键字作用的是保证

可见性



有序性

,并不保证原子性。

那么,

volatile

是如何保证

可见性



有序性

的?我们先进行基于JMM层面的实现基础,后面两章会进行底层原理的介绍。



1.1、volatile变量的可见性

Java虚拟机规范中定义了一种Java内存 模型(Java Memory Model,即JMM)来屏蔽掉各种硬件和操作系统的内存访问差异,以实现让Java程序在各种平台下都能达到一致的并发效果。Java内存模型的主要目标就是

定义程序中各个变量的访问规则,即在虚拟机中将变量存储到内存和从内存中取出变量这样的细节

在讲解JMM之前先了解一下现代计算机的内存模式。



现代计算机的内存模型

其实早期计算机中cpu和内存的速度是差不多的,但在现代计算机中,

cpu的指令速度远超内存的存取速度

,由于计算机的存储设备与处理器的运算速度有几个数量级的差距,所以现代计算机系统都不得不加入一层读写速度尽可能接近处理器运算速度的

高速缓存(Cache)

来作为内存与处理器之间的缓冲。

将运算需要使用到的数据复制到缓存中,让运算能快速进行,当运算结束后再从缓存同步回内存之中,这样处理器就无须等待缓慢的内存读写了。

基于高速缓存的存储交互很好地解决了处理器与内存的速度矛盾,但是也为计算机系统带来更高的复杂度,因为它引入了一个新的问题:

缓存一致性(CacheCoherence)

在多处理器系统中,每个处理器都有自己的高速缓存,而它们又共享同一主内存(MainMemory)。


Java内存模型(JavaMemoryModel)

描述了Java程序中各种变量(线程共享变量)的访问规则,以及在JVM中将变量,存储到内存和从内存中读取变量这样的底层细节。

所有的共享变量都存储于主内存,这里所说的变量指的是实例变量和类变量,不包含局部变量,因为局部变量是线程私有的,因此不存在竞争问题。

每一个线程还存在自己的工作内存,线程的工作内存,保留了被线程使用的变量的工作副本。


线程对变量的所有的操作(读,取)都必须在工作内存中完成,而不能直接读写主内存中的变量

不同线程之间也不能直接访问对方工作内存中的变量,线程间变量的值的传递需要通过主内存中转来完成。



本地内存和主内存的关系:

正是因为这样的机制,才导致了可见性问题的存在。

对于普通共享变量,线程A将变量修改后,体现在此线程的工作内存。在尚未同步到主内存时,若线程B使用此变量,从主内存中获取到的是修改前的值,便发生了共享变量值的不一致,也就是出现了

线程的可见性问题


volatile

定义:

  • 当对volatile变量执行写操作后,JMM会把工作内存中的最新变量值强制刷新到主内存
  • 写操作会导致其他线程中的缓存无效

这样,其他线程使用缓存时,发现本地工作内存中此变量无效,便从主内存中获取,这样获取到的变量便是最新的值,实现了线程的可见性。



1.2、volatile变量的禁止指令重排序

为了提高性能,编译器和处理器常常会对既定的代码执行顺序进行指令重排序。


重排序的类型有哪些呢?源码到最终执行会经过哪些重排序呢?


一个好的内存模型实际上会放松对处理器和编译器规则的束缚,也就是说软件技术和硬件技术都为同一个目标,而进行奋斗:在不改变程序执行结果的前提下,尽可能提高执行效率。

JMM对底层尽量减少约束,使其能够发挥自身优势。

因此,在执行程序时,为了提高性能,编译器和处理器常常会对指令进行重排序。

一般重排序可以分为如下三种:

  • 编译器优化的重排序。编译器在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序;
  • 指令级并行的重排序。现代处理器采用了指令级并行技术来将多条指令重叠执行。如果不存在数据依赖性,处理器可以改变语句对应机器指令的执行顺序;
  • 内存系统的重排序。由于处理器使用缓存和读/写缓冲区,这使得加载和存储操作看上去可能是在乱序执行的。


volatile

是通过编译器在生成字节码时,在指令序列中添加“

内存屏障

”来禁止指令重排序的。

硬件层面的“

内存屏障

”:


  • sfence

    :即写屏障(Store Barrier),在写指令之后插入写屏障,能让写入缓存的最新数据写回到主内存,以保证写入的数据立刻对其他线程可见

  • lfence

    :即读屏障(Load Barrier),在读指令前插入读屏障,可以让高速缓存中的数据失效,重新从主内存加载数据,以保证读取的是最新的数据。

  • mfence

    :即全能屏障(modify/mix Barrier ),兼具sfence和lfence的功能

  • lock 前缀

    :lock不是内存屏障,而是一种锁。执行时会锁住内存子系统来确保执行顺序,甚至跨多个CPU。

JMM层面的“

内存屏障

”:


  • LoadLoad屏障

    : 对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。


  • StoreStore屏障

    :对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。


  • LoadStore屏障

    :对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。


  • StoreLoad屏障

    : 对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。

JVM的实现会在volatile读写前后均加上内存屏障,在一定程度上保证有序性。如下所示:

LoadLoadBarrier

volatile 读操作

LoadStoreBarrier

StoreStoreBarrier

volatile 写操作

StoreLoadBarrier


感谢诸君的观看,文中如有纰漏,欢迎在评论区来交流。如果这篇文章帮助到了你,欢迎点赞👍关注。



版权声明:本文为weixin_41677621原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。