共享指针析构函数中的内存顺序
Memory order in shared pointer destructor
我正在尝试找出共享指针析构函数最宽松(和正确)的内存顺序。我现在的想法如下:
~shared_ptr() {
if (p) {
if (p->cnt.fetch_sub(1, std::memory_order_release) == 1) {
p->cnt.load(std::memory_order_acquire);
delete p;
}
}
}
基本上,我认为所有以前的fetch_sub()
都应该在delete p;
之前发生,并且通过p->cnt.load(std::memory_order_acquire);
,我构建了一个确保这一点的发布序列。
我是C++记忆模型的新手,不太有信心。我的上述推理是否正确,我指定的记忆顺序是否正确和最宽松?
从理论上讲,您可能拥有最有效的代码,因为没有不必要的同步。
但实际上,几乎没有 CPU 提供能够完美映射到获取/释放内存顺序的指令(也许未来的 ARMv8.3-A 会)。因此,您必须检查生成的代码的每个目标。
例如,在x86_64fetch_sub(std::memory_order_acq_rel)
和fetch_sub(std::memory_order_release)
将导致完全相同的指令。
因此,虽然理论上你的代码看起来是最优的,但在实践中,你得到的代码不如你选择更简单的方法时的最佳:
std::atomic<int> cnt;
int* p;
void optimal_in_therory() {
if (cnt.fetch_sub(1, std::memory_order_release) == 1) {
cnt.load(std::memory_order_acquire);
delete p;
}
}
void optimal_in_practice_on_x86_64() {
if (cnt.fetch_sub(1, std::memory_order_acq_rel) == 1) {
delete p;
}
}
集会:
optimal_in_therory():
lock sub DWORD PTR cnt[rip], 1
je .L4
rep ret
.L4:
mov eax, DWORD PTR cnt[rip] ;Unnecessary extra load
mov rdi, QWORD PTR p[rip]
mov esi, 4
jmp operator delete(void*, unsigned long)
optimal_in_practice_on_x86_64():
lock sub DWORD PTR cnt[rip], 1
je .L7
rep ret
.L7:
mov rdi, QWORD PTR p[rip]
mov esi, 4
jmp operator delete(void*, unsigned long)
总有一天我会活在理论中,因为在理论中一切都很顺利——皮埃尔·德普罗格斯
为什么编译器保留此额外负载?
根据标准,优化器允许消除在非易失性原子学上执行的冗余负载。例如,如果您在代码中添加了三个额外的加载:
cnt.load(std::memory_order_acquire);
cnt.load(std::memory_order_acquire);
cnt.load(std::memory_order_acquire);
使用 GCC 或 Clang 时,三个荷载将出现在装配体中:
mov eax, DWORD PTR cnt[rip]
mov eax, DWORD PTR cnt[rip]
mov eax, DWORD PTR cnt[rip]
这是一个非常糟糕的悲观。我的观点是,由于"波动性"和"原子性"之间的历史混淆,它保持原样。虽然几乎所有程序员都知道易失性不具有原子变量的属性,但许多代码仍然以原子具有易失性特性的想法编写:"原子访问是一种可观察的行为"。根据标准,它不是(标准中关于这一事实的明确示例说明)。这是关于SO的一个反复出现的问题。
所以你的代码在理论上确实是最优代码,它是悲观的,因为编译器优化代码,就好像原子也是易失物一样。
解决方法可能是用Kieth在其评论中提出的atomic_thread_fence替换负载。我不是硬件专家,但我想这样的围栏可能会导致比必要的(或至少在理论上;))更多的内存"同步"。
为什么我相信你的代码在理论上是最佳的?
单个对象的最后一个shared_ptr必须调用该对象的析构函数,而不会本身导致数据争用。desctructor 可以访问对象的值,因此 desctructor 调用必须在指向对象的指针"失效"之后发生。
因此,delete p;
必须在共享同一指向对象的所有其他共享指针的析构函数调用之后"发生"。
在标准发生之前由以下段落定义:
[介绍种族]/9:
在以下情况下,评估 A 线程间发生在评估 B 之前:
- A 与 B 同步,或 [...]
- 与"之前排序"的任何组合,都是传递规则。
[介绍种族]/10:
在以下情况下,评估 A 发生在评估 B 之前(或者,等效地,B 发生在 A 之后):
A 在 B 之前排序,或者
线程间发生在 B 之前。
因此,在delete p
之前排序的fetch_sub
与其他fetch_sub
之间必须存在"同步"关系。
根据[atomics.order]/2:
对原子对象 M 执行释放操作的原子操作 A 与对 M 执行获取操作的原子操作 B 同步,并从以 A 为首的释放序列中的任何副作用中获取其值。
因此,delete p
必须在采集操作之后进行排序,该操作加载了所有其他fetch_sub
释放序列中的值。
根据 [expr.races]/5,最后一个fetch_sub
(按照 cnt 的修改顺序)将属于所有其他发布fetch_sub
的发布顺序,因为fetch_sub
是读取-修改-写入操作,就像fetch_add
一样(假设cnt
上没有其他操作发生)。
因此,delete p
将在所有其他fetch_sub之后发生,只有在delete p
被称为"同步"之前才会产生"同步"。确切地说,不是更多的是必要的。
- 具有内存顺序的原子负载存储
- 原子加载和存储与内存顺序放宽
- 内存排序或读取-修改-写入操作,仅(读/写)内存顺序
- 理解C++内存顺序,我错了吗?
- 初始化值是否保证通过其自己的地址反映,而不考虑内存顺序
- 如果 RMW 操作没有任何变化,是否可以针对所有内存顺序对其进行优化
- 多个线程之间的获取-释放内存顺序
- 松弛的内存顺序会导致无限循环吗?
- 是否可以使用松弛的内存顺序来观察条件?
- 共享指针析构函数中的内存顺序
- C++中的类私有成员的内存顺序是否得到保证?
- 将fetch_add与宽松的内存顺序返回唯一值
- 混合放松和释放获取内存顺序
- 使用C++原子库,我应该使用什么样的内存顺序进行加载,然后进行比较交换
- 当某些错误可以接受时,顺序加载存储原子的内存顺序应该是什么
- 获取释放内存顺序与顺序一致性不同的实际示例是什么?
- 发行语义中的内存操作 - C 11的内存顺序
- 我应该为等待工作线程的主线程使用哪种内存顺序
- OpenMP原子内存顺序
- "acquire" 和"consume"内存顺序有何不同,何时"consume"可取?