fgr*_*ieu 9 x86 floating-accuracy
不同的x86 CPU(具有内置FPU和合理的最新版本,比如已推出这个千禧年)为其浮点基元产生完全相同的结果,假设在被比较的CPU上有相同的指令,相同的输入和相同的操作参数,例如舍入模式?我对时间上的差异感兴趣,也没有对Pentium FDIV错误感兴趣(因为那个事件很古老而不符合资格).
我猜对于加法,减法,否定和舍入到整数的答案是肯定的,因为它们具有精确的定义,我很难想象实现中的差异是什么(可能是检测溢出时的错误/下溢,但在某些应用程序中这将是一场灾难,所以我想这很久以前就已经被捕获并修复了).
乘法似乎更可能有不同的实现:确定两个DPFPN产品的(比如)最近可表示的双精度浮点数(64位,包括52 + 1尾数),有时需要计算其尾数的乘积(关于104位精度,对于少数LSBits来说,可以说是浪费精力.我想知道这是否尝试过,并且做得正确.或许IEEE-754或某些事实上的标准规定了什么?
师似乎更加微妙.
而且,除了常见的设计之外,我怀疑所有更复杂事物(trig函数,日志......)的实现都可以完全同步,因为可以使用各种数学方法.
我问的是纯粹的nosiness的结合; 愿意改善我的答案 ; 并期望一种方法(某些时候)允许在VM中运行的程序检测假装运行的CPU与真实CPU之间的不匹配.
在汇编级基本浮点指令(加,减,乘,除,平方根,FMA,舍入)总是产生相同的结果,如IEEE754标准所述.有两种指令可能会在不同的体系结构上产生不同的结果:用于计算超越运算的复杂FPU指令(FSIN,FCOS,F2XM1等),以及近似SSE指令(用于计算近似倒数的RCPSS/RCPPS,以及RSQRTSS,RSQRTPS)用于计算近似倒数平方根).超级x87 FPU操作在微码中实现,而AFAIK除AMD K5以外的所有Intel和AMD CPU都使用相同的微码,因此您无法使用它进行检测.它可能仅对检测VIA,Cyrix,Transmeta和其他旧CPU有帮助,但这些太少难以考虑.英特尔和AMD的近似SSE指令的实现方式不同,AFAIK在旧的(K8之前)和更新的AMD CPU上的实现存在一些差异.您可以使用该差异来检测AMD CPU假装为Intel,反之亦然,但这是一个有限的用例.
归档时间: |
|
查看次数: |
685 次 |
最近记录: |