在OSX上使用Python 2.7时,输出结果与有所不同x
,想知道是否有一种方法可以控制Python的double / float精度更高吗?
x=0.123456789123456789
print x # output 0.123456789123
更新1
使用十进制时的输出很奇怪,
x=0.123456789123456789
y=decimal.Decimal(x)
print x," and ", y # output 0.123456789123 and 0.1234567891234567837965840908509562723338603973388671875
问候,林
您可以使用Decimal进行操作-一旦有了数字,您就可以精确地进行游戏
import decimal
initial_x='0.123456789123456789'
x=decimal.Decimal(initial_x)
本文收集自互联网,转载请注明来源。
如有侵权,请联系[email protected] 删除。
我来说两句