是什么区别decimal
,float
并double
在.NET?
什么时候会有人使用其中一种?
不,这不是另一个"为什么是(1/3.0)*3!= 1"的问题.
我最近一直在读关于漂浮点的事情; 具体而言,相同的计算如何在不同的体系结构或优化设置上给出不同的结果.
对于存储重放的视频游戏来说,这是一个问题,或者是对等网络(而不是服务器 - 客户端),它依赖于每次运行程序时产生完全相同结果的所有客户端 - 一个小的差异浮点计算可能导致不同机器(甚至是同一台机器上)的游戏状态截然不同!
甚至在"跟随" IEEE-754的处理器中也会发生这种情况,这主要是因为某些处理器(即x86)使用双倍扩展精度.也就是说,它们使用80位寄存器进行所有计算,然后截断为64位或32位,导致与使用64位或32位进行计算的机器不同的舍入结果.
我在网上看到过这个问题的几种解决方案,但都是针对C++,而不是C#:
double
使用_controlfp_s
(Windows),_FPU_SETCW
(Linux?)或fpsetprec
(BSD)禁用双扩展精度模式(以便所有计算使用IEEE-754 64位).float
和double
完全.decimal
可以用于此目的,但会慢得多,并且没有任何System.Math
库函数支持它.那么,这在C#中是否也是一个问题? 如果我只打算支持Windows(而不是Mono)怎么办?
如果是,有没有办法强制我的程序以正常的双精度运行?
如果没有,是否有任何库可以帮助保持浮点计算的一致性?
码:
Console.WriteLine(8.3-8);
Console.WriteLine(8.2-8);
Console.WriteLine(7.2-7);
Run Code Online (Sandbox Code Playgroud)
上面的代码将输出:
0.300000000000001
0.199999999999999
0.2
Run Code Online (Sandbox Code Playgroud)