Dr. Dobb's | The Future of Computing | July 17, 2006:章立ては7つになっているが、大きくは3つのパートになるかと思う。かなり乱暴に要約してみるとこんな感じ。
Worries about runaway power consumption may replace concerns about speed on the next generation of CPUs
ENIACに始まってコンピューターの歴史を辿りつつ、マイクロブレードで固められた最新型のデーターセンターまで紹介した後、スカラー・アーキテクチャなど内部構造に触れ、Cluster・Server・CPU・Core・Execution unitの5レベルでのマルチ化と統合が必要となってきている現実を紹介。ここらあたりから、"Software gets slower faster than hardware gets faster"というニクラウス・ヴィルト(そう、Pascalの発明者)の「Wirth's Law」の話に入る。本来ハードウェアの性能向上に伴って向上したはずのソフトウェアの効率が、開発者生産性を優先したために、犠牲にされたと述べている。GUIだのOOPだのは不完全な効率化のシロモノで、perlなんかのインタプリタ方式も悪。Vista OSに代表されるように新機能を加えて複雑性が増し、それを制御するためにさらに余計なCPU能力を使う、という矛盾をはらんでいるというところまでが第1幕。
第2幕は、コードの非効率性とは逆に、デスクトップレベルでは既にCPUはもう十分に速くなっているという話。VLIWはイマイチだが、マルチコア化は成功しており、IBMに至っては1024のコア・アーキテクチャ研究をアナウンスしたということで、問題はむしろI/Oやメモリアクセス速度になっていると指摘。Pentium4より低いクロックスピードのAMDが速い時代には、もはやクロックスピード向上というかCPUそのものが重要ではないのだと述べる。電力消費が大きく、発熱の多いXeonのような汎用CPUは、これからのデータセンターで主流になるマイクロブレードにおいては非常にやっかいな存在。GPU(グラフィック専用CPU)のようにSSLやDVD再生のための特定機能プロセッサが役立つとも言っている。
で、第3巻が結論なのだが、2つの理由、1つは「モバイル」、もう1つは増大するエネルギー価格や地球温暖化を背景にした「省エネ」によって、コンピューティングそのものに第3の評価軸が加わるだろうと述べている。で、本記事のタイトルのように「君のソフトはどれだけ電力を使うんだい?」となるだろうと(尤も、量子コンピューティングのような新技術が実用化されれば話が別だとは断ってある)。
さて、インテルとMSの共同戦線によって、18ヶ月で「性能2倍 or コストが半分」というムーアの法則が守られてきたわけだが、第3の評価軸も意外と無視できない。CO2排出権がビジネスになる時代だ。つまり売買できるということ。但し、このビジネスが成り立つのは今のところ京都議定書で取り決められたのは2012年までだ。もしも、デスクトップEXCELやWORDを低消費電力のサーバー駆動型サービスで置き換えれば(つまり企業内でPCを無くす事ができれば)、それだけで、CO2排出権を獲得してEEX(European Energy Exchange)あたりで売ることができるかもしれない。対象が企業コンピューティングというのがミソ(CO2の消費は企業活動の影響が大きい)。無論、CDM(クリーン開発メカニズム)プロジェクト承認審査に通るためには、ノウハウを持つファンドや総合商社などに力を借りる必要はあるだろう。ベースライン消費を規定して、当該プロジェクトをやれば全体としてこれだけ消費電力が削減されるはず、モニタリングも赫々云々で問題ないですと事前に証明するのは簡単ではない。
Web 3.0、或いはWeb 2.0の究極はこれかなあ、とおぼろげに感じるところあり。Tim OReillyもここまでは考えてないだろう。それとも、そもそも米国は京都議定書に調印してないからなあ。でも、Googleは排出権ビジネスを考えているかもね...。
そんなことを考えていると、こういう記事も少し気になるね。
Related Post:
ちょっと関係あるな、ということでこれも。
[Future Computing][CDM][Web 3.0][Kyoto commitments]