什么决定了 C 中整数的大小

What determines the size of integer in C?

本文关键字:整数 决定了 什么      更新时间:2023-10-16

可能的重复项:
整数、长整型等
大小 int 的大小是否取决于编译器和/或处理器?

我不确定以前是否在SO上问过类似的问题(至少,我在搜索时找不到任何问题,所以想问自己)。

什么决定了Cint(和其他数据类型)的大小。我已经阅读它取决于机器/操作系统/编译器,但还没有遇到足够清晰/详细的解释,例如什么覆盖了另一个,等等。任何解释或指示都会非常有帮助。

最终编译器会这样做,但为了使编译的代码能够很好地与系统库配合使用,大多数编译器都与用于构建目标系统的编译器的行为相匹配。

所以松散地说,int的大小是目标硬件和操作系统的属性(同一硬件上的两个不同操作系统可能具有不同的int大小,并且在两台不同机器上运行的同一操作系统可能具有不同的int大小;两者都有相当常见的例子)。

所有这些都受到C标准中规则的约束。 例如,int必须足够大以表示-3276732767之间的所有值。

>int是平台的"自然"大小,实际上这意味着

  • 处理器的寄存器大小,或

  • 向后兼容现有代码库的大小(例如 Win64 中的 32 位int)。

编译器供应商可以自由选择具有≥ 16 个值位的任何大小,除了(对于桌面平台和更高)不适用于操作系统 API 的大小将意味着很少(如果有的话)编译器的副本被出售。

C

数据类型的大小受 C 标准的约束,通常约束最小大小。主机环境(目标计算机 + 操作系统)可能会施加进一步的限制,即对最大大小的限制。最后,编译器可以在这些最小值和最大值之间自由选择合适的值。

通常,对 C 数据类型的大小做出假设被认为是不好的做法。此外,没有必要,因为 C 会告诉你:

  • sizeof运算符告诉您对象的大小(以字节为单位)
  • 来自 limits.h 的宏CHAR_BITS告诉您每字节的位数

因此,sizeof(foo) * CHAR_BITS告诉您类型 foo 的大小,以位为单位,包括填充。

其他任何事情都只是假设。请注意,主机环境也可能由 10.000 名中国人组成,他们拿着袖珍计算器和一块巨大的黑板,凭空拉出尺寸限制。

SO 除了维基百科之外什么都不知道,几乎......
见Integer_(computer_science)

注(b)说:
"C/C++ 中 short 、int 和 long 的大小取决于语言的实现;根据数据模型,即使是短也可以是 16 位到 64 位的任何值。对于一些常见的平台:
在较旧的 16 位操作系统上,int 为 16 位,long 为 32 位。
在 32 位 Linux、DOS 和 Windows 上,int 和 long 是 32 位,而 long long 是 64 位。对于运行 32 位程序的 64 位处理器也是如此。
在64位Linux上,int是32位,而long和long long是64位。