Mar*_*oom 5 assembly x86-64 cpu-architecture speculative-execution branch-prediction
我正在尝试在我的Kabe湖7600U上创建一个光谱线(cfr。Henry Wong),正在运行CentOS 7。
我的specpoline版本如下(cfr。spec.asm):
specpoline:
;Long dependancy chain
fld1
TIMES 4 f2xm1
fcos
TIMES 4 f2xm1
fcos
TIMES 4 f2xm1
%ifdef ARCH_STORE
mov DWORD [buffer], 241 ;Store in the first line
%endif
add rsp, 8
ret
Run Code Online (Sandbox Code Playgroud)
此版本与黄宏Henry的版本不同,流程被转移到建筑路径中。当原始版本使用固定地址时,我将目标传递到堆栈中。
这样,add rsp, 8将删除原始的寄信人地址并使用人工地址。
在函数的第一部分中,我使用一些旧的FPU指令创建了一个长延迟依赖关系链,然后创建了一个独立的链,试图欺骗CPU返回堆栈预测变量。
使用FLUSH + RELOAD 1将specpoline插入到配置文件上下文中,同一程序集文件还包含:
buffer
一个连续的缓冲区,它跨越256个不同的高速缓存行,每个高速缓存行之间用GAP-1行分隔开来,总共为256*64*GAP字节。
GAP用于防止硬件预取。
随后是图形描述(每个索引紧接另一个)。
timings
256个DWORD数组,每个条目保存访问F + R缓冲区中相应行所需的时间(以核心周期为单位)。
flush
一个小功能,可以触摸F + R缓冲区的每一页(带有存储,请确保COW在我们这一边)并逐出指定的行。
“个人资料”
标准配置文件功能lfence+rdtsc+lence很好地用于配置F + R缓冲区中每一行的负载,并将结果存储在timings数组中。
leak
这是执行实际工作的功能,称为specpoline在推测路径中放置商店,而profile在架构路径中称为功能。
;Flush the F+R lines
call flush
;Unaligned stack, don't mind
lea rax, [.profile]
push rax
call specpoline
;O.O 0
; o o o SPECULATIVE PATH
;0.0 O
%ifdef SPEC_STORE
mov DWORD [buffer], 241 ;Just a number
%endif
ud2 ;Stop speculation
.profile:
;Ll Ll
; ! ! ARCHITECTURAL PATH
;Ll Ll
;Fill the timings array
call profile
Run Code Online (Sandbox Code Playgroud)
一个小的C程序用于“引导”测试工具。
该代码使用预处理器,如果有条件的话,有条件地将存储放入架构路径中(实际上是在谱线本身中),如果有条件,则将预处理器有条件地放置ARCH_STORE在推测路径中SPEC_STORE。
两者都存储访问F + R缓冲区的第一行。
运行make run_spec并将与相应的符号make run_arch组装spec.asm在一起,编译测试并运行它。
该测试显示了F + R缓冲区每一行的时序。
存放在建筑路径中
38 230 258 250 212 355 230 223 214 212 220 216 206 212 212 234
213 222 216 212 212 210 1279 222 226 301 258 217 208 212 208 212
208 208 208 216 210 212 214 213 211 213 254 216 210 224 211 209
258 212 214 224 220 227 222 224 208 212 212 210 210 224 213 213
207 212 254 224 209 326 225 216 216 224 214 210 208 222 213 236
234 208 210 222 228 223 208 210 220 212 258 223 210 218 210 218
210 218 212 214 208 209 209 225 206 208 206 1385 207 226 220 208
224 212 228 213 209 226 226 210 226 212 228 222 226 214 230 212
230 211 226 218 228 212 234 223 228 216 228 212 224 225 228 226
228 242 268 226 226 229 224 226 224 212 299 216 228 211 226 212
230 216 228 224 228 216 228 218 228 218 227 226 230 222 230 225
228 226 224 218 225 252 238 220 229 1298 228 216 228 208 230 225
226 224 226 210 238 209 234 224 226 255 230 226 230 206 227 209
226 224 228 226 223 246 234 226 227 228 230 216 228 211 238 216
228 222 226 227 226 240 236 225 226 212 226 226 226 223 228 224
228 224 229 214 224 226 224 218 229 238 234 226 225 240 236 210
Run Code Online (Sandbox Code Playgroud)
存储在推测路径中
298 216 212 205 205 1286 206 206 208 251 204 206 206 208 208 208
206 206 230 204 206 208 208 208 210 206 202 208 206 204 256 208
206 208 203 206 206 206 206 206 208 209 209 256 202 204 206 210
252 208 216 206 204 206 252 232 218 208 210 206 206 206 212 206
206 206 206 242 207 209 246 206 206 208 210 208 204 208 206 204
204 204 206 210 206 208 208 232 230 208 204 210 1287 204 238 207
207 211 205 282 202 206 212 208 206 206 204 206 206 210 232 209
205 207 207 211 205 207 209 205 205 211 250 206 208 210 278 242
206 208 204 206 208 204 208 210 206 206 206 206 206 208 204 210
206 206 208 242 206 208 206 208 208 210 210 210 202 232 205 207
209 207 211 209 207 209 212 206 232 208 210 244 204 208 255 208
204 210 206 206 206 1383 209 209 205 209 205 246 206 210 208 208
206 206 204 204 208 246 206 206 204 234 207 244 206 206 208 206
208 206 206 206 206 212 204 208 208 202 208 208 208 208 206 208
250 208 214 206 206 206 206 208 203 279 230 206 206 210 242 209
209 205 211 213 207 207 209 207 207 211 205 203 207 209 209 207
Run Code Online (Sandbox Code Playgroud)
我在构架路径中放置了一个商店来测试计时功能,它似乎可以正常工作。
但是,我无法在推测路径中的商店中获得相同的结果。
为什么CPU不以推测方式执行存储?
1我承认,我从未真正花费时间来区分所有缓存分析技术。我希望我使用正确的名字。用FLUSH + RELOAD表示退出一组行,推测性地执行一些代码,然后记录访问每一条退出行的时间的过程。
您的“长 dep 链”是来自那些微编码 x87 指令的许多 uops。fcosSKL 上的速度为 53-105 uops,吞吐量为 50-130 个周期。因此,每个 uop 延迟约为 1 个周期,并且调度程序/保留站 (RS) 在 SKL/KBL 中“仅”有 97 个条目。此外,将后续指令放入无序后端可能是一个问题,因为微代码接管前端并需要某种机制来决定接下来要发出哪些微指令,这可能取决于某些计算的结果。(已知微指令的数量取决于数据。)
如果您希望充满未执行微指令的 RS 具有最大延迟,那么sqrtpd依赖链可能是您最好的选择。例如
xorps xmm0,xmm0 ; avoid subnormals that might trigger FP assists
times 40 sqrtsd xmm0, xmm0
; then make the store of the new ret addr dependent on that chain
movd ebx, xmm0
; and ebx, 0 ; not needed, sqrt(0) = 0.0 = integer bit pattern 0
mov [rsp+rbx], rax
ret
Run Code Online (Sandbox Code Playgroud)
自 Nehalem 以来,Intel CPU 可以通过分支顺序缓冲区快速恢复分支未命中,该缓冲区可以快照 OoO 状态(包括 RAT 和可能的 RS)。当 skylake CPU 错误预测分支时,到底会发生什么?。 因此,他们可以准确地恢复到错误预测,而无需等待错误预测成为退休状态。
mov [rsp], rax可以在进入 RS 后立即执行,或者至少不依赖于sqrtdep 链。一旦存储转发可以产生值,retuop 就可以执行并检查预测,并在 sqrt dep 链仍在处理时检测错误预测。(ret是用于加载端口的 1 个微融合 uop + 端口 6,即采取分支执行单元所在的位置。)
将sqrtsddep 链耦合以存储新的返回地址可防止ret过早执行。 在执行端口中执行uop ret= 检查预测并检测错误预测(如果有)。
(与 Meltdown 相比,“错误”的路径一直运行,直到故障负载达到退休状态,并且您希望它尽快执行(只是不退休)。但您通常希望将整个 Meltdown 攻击置于其他事物的阴影下,像 TSX 或 Specpoline,在这种情况下,您需要这样的东西,并将整个 Meltdown置于该 dep 链的阴影下。然后 Meltdown 就不需要自己的sqrtsddep 链。)
(vsqrtpd ymmSKL 上仍然是 1 uop,吞吐量比 xmm 差,但它具有相同的延迟。因此使用它sqrtsd,因为它的长度相同,并且可能更节能。)
SKL/KBL ( https://agner.org/optimize )上的最佳情况延迟为 15 个周期,而最坏情况为 16 个周期,因此从什么输入开始并不重要。
我最初使用 sqrtpd 得到了类似的结果。然而,我没有初始化用作输入(和输出)的 XMM 寄存器,认为这并不重要。我再次测试,但这次我用两个双精度值 1e200 初始化寄存器,得到的是间歇性结果。有时会推测性地获取该行,有时则不会。
如果XMM0 持有次正规值(例如位模式是一个小整数),sqrtpd 将采用微码辅助。(fp_assist.any性能计数器)。即使结果正常但输入不正常。我用这个循环在 SKL 上测试了这两种情况:
pcmpeqd xmm0,xmm0
psrlq xmm0, 61 ; or 31 for a subnormal input whose sqrt is normalized
addpd xmm0,xmm0 ; avoid domain-crossing vec-int -> vec-fp weirdness
mov ecx, 10000000
.loop:
sqrtpd xmm1, xmm0
dec ecx
jnz .loop
mov eax,1
int 0x80 ; sys_exit
Run Code Online (Sandbox Code Playgroud)
perf stat -etask-clock,context-switches,cpu-migrations,page-faults,cycles,branches,instructions,uops_issued.any,uops_executed.thread,fp_assist.any对于非正规输入,每次迭代显示 1 次协助,并951M发出 uops(每次迭代约 160 个周期)。因此,我们可以得出结论,在这种情况下,微代码辅助需要sqrtpd约 95 微指令,并且当它连续发生时,吞吐量成本约为 160 个周期。
与输入 = NaN(全 1)时发出的 20M uops 总数相比,每次迭代 4.5 个周期。(循环运行 10M sqrtpduops 和 10M 宏融合 dec/jcc uops。)