1ヶ月前のニュースでちと古いが…。
「日経コンピュータ」を読んでて思い出してみた。(書いてあったので)
スクープでもなんでもなくて、こんなもんずーっと昔から(それこそ、WindowsがまだMS-DOSの頃から)判ってたことでした。
その頃の私はUNIX系で開発をしてまして、それもカレンダー処理とか時計処理とか…。「あぁ、便利だけど、どーなるんだよ、これ」と思った記憶があります。そして、更に「まぁ、そんな遠い先の話、どーせ開発してねーしな」とお気楽に考えてました。
そりゃ、これから30年以上先の話なんで、ワタクシ生きてるかどーかさえわかりませんが(笑)少なくても開発はしてないだろう…。がんばってgrepしてください…未来の開発者さん達(他人事)
ホントウに簡単に説明すれば……。
UNIXで時間の概念をInteger型という型で管理しています。その型の(基本的に)32ビットであらわせる最大値までしか時間を表すことができないということが問題になります。
で、その値が0の時に「1970年1月1日0時0分0秒」だよ、というお約束があって、その値は1秒毎に加算されていっています。その型が最大値(32ビットが全部1になる時)になるのは…「2038年1月19日午後12時14分7秒(前後・誤差あり・日本)」となりますよ。というのが、「2038年問題」
さて、どーなるですかね…。
あんなに大騒ぎしたのは何だったのでしょうかねぇ。
また同じことが繰り返されるのでしょう。
この先30年…Linuxを使ってるシステムがやばそうですが…。
今運用中のものは動いているとは思えない(笑