为什么千字节中的字节数存在差异?在某些地方,我看到了数字 1024 (2 10 ),而在其他地方,它是 1000(M、G、T 等的差异越来越大)。
这不是关于它应该是 1024 还是 1000(尽管您可以在评论中讨论它)的讨论,而是关于这种情况起源和/或传播的地点/时间。
据我所知,Linux 和硬件制造商从不使用 1024 变体。那个和传闻让我认为 MS-DOS 使这个版本变得普遍,但事实是什么?
par*_*oid 63
它可以追溯到很长一段时间,并在此处详细说明。看起来你可以责怪 IBM,如果有人的话。
再考虑一下,我会责怪整个美国人,因为他们公然无视Système international d'unités :P
Not*_*ist 27
一开始所有的计算都是低级的。在低级编程中,数字“1000”完全没用,他们需要更大数量的前缀,所以他们重用了 SI 的。场内所有人都知道,没有任何混乱。它服务了 30 年,谁知道呢。
这不是因为他们是美国人,所以他们需要不惜一切代价打破 SI。:-)
没有我认识的程序员说 kibibyte。他们说千字节,他们的意思是 1024 字节。算法充满了 2 的幂。即使在今天,“1000”在程序员之间也是一个真正无用的数字。
说kibi和mibi太有趣了,会引起主题的注意。我们很高兴将它赠送给电信和磁盘存储部门:-)。我将在非程序员可以阅读的用户界面上写入 kibibytes。
在很多情况下,技术人员使用 1024 = 1K 是正确的并且是有意义的。
对于最终用户来说,通常最好说 1000 = 1k,因为每个人都习惯了以 10 为基础的数字系统。
问题是在哪里画线。有时营销或广告人员在“翻译”或将技术数据和语言适应最终用户方面并没有真正成功。
| 归档时间: |
|
| 查看次数: |
10885 次 |
| 最近记录: |