概述
我在输出浮点数时遇到了一个恼人的问题。当我在Windows上以2个小数点的精度格式化11.545时,它输出“11.55”,正如我所期望的那样。但是,当我在Linux上做同样的操作时,输出是“11.54”!在
我最初在Python中遇到了这个问题,但是进一步的研究表明,区别在于底层C运行库。(在这两种情况下,体系结构都是x86-x64)在Windows和Linux上运行下面的C会产生不同的结果,就像在Python中一样。在printf("%.2f", 11.545);
为了进一步阐明这一点,我将数字打印到小数点后20位("%.20f"):
^{pr2}$
我知道11.545不能精确地存储为二进制数。因此,看起来Linux以尽可能高的精度输出实际存储的数字,而Windows则输出最简单的十进制表示,即试图猜测用户最可能的意思。在
我的问题是:有没有什么(合理的)方法来模拟Windows上的Linux行为?
(虽然Windows的行为当然是直观的,但在我的例子中,我需要将Windows程序的输出与Linux程序的输出进行比较,而Windows程序是我唯一可以改变的。顺便说一句,我试图查看printf的Windows源代码,但实际执行float->;字符串转换的函数是_cfltcvt_l,它的源似乎不可用。)
编辑:图变粗!关于这是由不精确表示引起的理论可能是错误的,因为0.125确实有一个精确的二进制表示,当用'%.2f' % 0.125输出时,它仍然不同:Windows: 0.13
Linux: 0.12
但是,round(0.125, 2)在Windows和Linux上都返回0.13。在
最后
以上就是负责小鸭子为你收集整理的windows变linux字符,Windows环境下Linux的浮点字符串转换行为仿真的全部内容,希望文章能够帮你解决windows变linux字符,Windows环境下Linux的浮点字符串转换行为仿真所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复