内存屏障和CPU缓存

内存屏障和CPU缓存

CPU性能优化手段 - 缓存

为了提高程序运行的性能,在很多程序方面进行了优化。例如: CPU高速缓存。尽可能地避免处理器访问内存的时间开销,处理器大多会利用缓存(cache)以提高性能。

CPU性能优化手段 - 缓存

多级缓存

L1 Cache (一级缓存)

L1 Cache是CPU第一层高速缓存,分为数据缓存指令缓存。一般服务器CPU的L1缓存的容量通常在32-4096KB

L2 Cache(二级缓存)

L2 由于L1级高速缓存容量的限制,为了再次提高CPU的运算速度,在CPU外部放置一高速存储器,即二级缓存

L3 Cache(三级缓存

L3现在的都是内置的。而它实际的作用是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。一般多核共享一个L3缓存。

L3其实也是降低容量的限制。

L3是多核共用,L1、L2是每个核都有的

CPU在读数据时,先在L1中寻找、再从L2中寻找、再从L3中寻找、然后是内存、再后是外存储器。

缓存同步协议

多CPU 读取同样的数据进行缓存,进行不同运算之后,最终写入主内存以哪个CPU为准?

在这种高速缓存会写的场景下,有一个缓存一致性协议多数厂商对它进行了实现。

MESI协议, 它规定每条缓存有个状态位, 同时定义了下面四个状态:

  • 修改态(Modified)此Cache行已被修改过(脏行),内容已不同于主存,为此Cache享有
  • 专有态(Exclusive)此Cache行内容同于主存,但不出现于其它Cache中
  • 共享态(Shared)此Cache行内容同于主存,但也出现于其它Cache中
  • 无效态(Invalid)此Cache行内容无效(空行),需要再从主内存中加载

MESI协议就是多处理器时,单个CPU对缓存中数据进行了改动,需要通知给其它CPU。

也就是意味着,CPU处理要控制自己的读写操作,还要监听其它CPU发出的通知,从而保证最终一致性

CPU性能优化手段 - 运行时指令重排

运行时指令重排

指令重排的场景:当CPU写缓存时发现缓存区快正被其他CPU占用,为了提高CPU处理性能,可能将后面的读缓存命令有限执行。

当然,并非随便重排,需要遵守as-if-serial协议

as-if-serial语义的意思指:不管怎么重排序(编译器和处理器为了提高并行度),(单线程)的程序的执行结果不能被改变。编译器,runtime和处理器都必须驯兽as-if-serial语义。

也就是说:编译器和处理器不会对存在数据依赖关系的操作进行重排序

两个问题

1. CPU告诉缓存下有一个问题

缓存中的数据与主内存的数据并不是实时同步的,各CPU(或CPU核心)间缓存的数据也不是实时同步。在同一时间点,各CPU所看到统一内存地址的数据的值可能是不一致的。

2. CPU执行指令重排序优化下有一个问题

虽然遵循了as-if-serial语义,但仅在单CPU自己执行的情况下能保证结果正确

多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误。

内存屏障

处理器提供了两个内存屏障指令(Memory Barrier)用于解决上述两个问题

  • 写内存屏障(Store Memory Barrier)在指令后插入Store Barrier,能让写入缓存中的最新数据更新写入主内存,让其他线程可见。强制写入主内存,这种显式调用,CPU就不会因为性能考虑而去对指令重排。多核的情况,也会等待其他执行完成。
  • 读内存屏障(Load Memory Barrier)在指令前插入Load Barrier,可以让告诉缓存中的数据失效,强制从新主内存加载数据。强制读取主内存内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题。

Copyright: 采用 知识共享署名4.0 国际许可协议进行许可

Links: https://baozi.fun/2019/12/02/memory-barrier-cpu-cache

Buy me a cup of coffee ☕.