数字有限表示的影响
1. 引言
在编程领域,数字的表示方式与算法中的假设存在显著差异。算法通常假定数字的表示没有任何限制,而在实际的计算机程序中,所有数字的表示都存在固有的局限性。这些局限性会对编程产生多方面的重要影响,涵盖了程序中数字的实际存在性、相等性测试、数学性质以及收敛行为等问题。
2. 位和字复杂度回顾
2.1 有限表示的必然性
程序中的每个数据项都必然具有有限的表示。在绝大多数情况下,这种表示不仅是有限的,而且是有界的。在软件开发中,位复杂度并非自然产生的概念,程序通常会指定用于表示一个数据项的字节数,一旦做出这个决定,该数据项所使用的位数就固定下来了。无界表示通常需要动态内存分配技术,仅在特殊情况下使用。对于大多数实际应用而言,程序中的复杂度主要是字复杂度,关键在于这个字包含多少位。
2.2 固定长度表示的限制
当选择了固定长度的表示(即一个字)后,会立即出现一些限制。例如,使用固定数量的位只能表示有限个不同的值。如果有 m 位,那么能表示的值肯定不超过 2^m 个。这意味着我们必须面对诸如溢出、下溢和舍入误差等问题。
2.3 十进制与二进制表示的差异
许多人都知道某些实数(如 √2)和有理数(如 1/3)没有有限的十进制表示。然而,很少有程序员意识到,像 0.3 或 1.3 这样在十进制中有有限表示的数字,在普通程序中却没有有限的二进制表示。在程序中写入常量 1.3 时,严格来说,它不是一个确切的数字,而是一个标识符,指向一个接近十进制值 1.3 但永远不会精确等于 1.3 的值。更令人困惑的是,这个标识符 1.3 的值可能会改变,它取决于用于表示该
超级会员免费看
订阅专栏 解锁全文
5699

被折叠的 条评论
为什么被折叠?



