共计 902 个字符,预计需要花费 3 分钟才能阅读完成。
导读 | 今天我们来讨论一个非常有意思的事,那就是你知道为什么计算机时间和众多的编程语言的时间都要从 1970 年 1 月 1 日开始算起呢,时间计时起点到底为什么是 1970 年 1 月 1 号呢?我想大家应该都知道,但是我估计大家几乎大部分都没有想过这个问题。我们就一起来聊聊,这是为什么? |
很多编程语言起源于 UNIX 系统,而 UNIX 系统认为 1970 年 1 月 1 日 0 点是时间纪元,所以我们常说的 UNIX 时间戳是以 1970 年 1 月 1 日 0 点为计时起点时间的。
说了这个懒人的解释,估计大家还没有懂得真正的意思。所以我们接下来深入的了解一下。
最初计算机操作系统是 32 位,而时间也是用 32 位表示。
1.System.out.println(Integer.MAX_VALUE);
2.2147483647
Integer 在 JAVA 内用 32 位表示,因此 32 位能表示的最大值是 2147483647。另外 1 年 365 天的总秒数是 31536000,2147483647/31536000 = 68.1,也就是说 32 位能表示的最长时间是 68 年,从 1970 年开始的话,加上 68.1,实际最终到 2038 年 01 月 19 日 03 时 14 分 07 秒,便会到达最大时间,过了这个时间点,所有 32 位操作系统时间便会变为 10000000 00000000 00000000 00000000,算下来也就是 1901 年 12 月 13 日 20 时 45 分 52 秒,这样便会出现时间回归的现象,很多软件便会运行异常了。
到这里,我想问题的答案已经显现出来了,那就是: 因为用 32 位来表示时间的最大间隔是 68 年,而最早出现的 UNIX 操作系统考虑到计算机产生的年代和应用的时限综合取了 1970 年 1 月 1 日作为 UNIX TIME 的纪元时间 (开始时间),至于时间回归的现象相信随着 64 为操作系统的产生逐渐得到解决,因为用 64 位操作系统可以表示到 292,277,026,596 年 12 月 4 日 15 时 30 分 08 秒,相信我们的 N 代子孙,哪怕地球毁灭那天都不用愁不够用了,因为这个时间已经是千亿年以后 了。