「集積回路上のトランジスタ数は18~24カ月で倍増する」として知られるムーアの法則。法則といっても、自然科学的な根拠はない経験則で、またCPUの性能を指して言及されたものでもありませんが、いずれにしても、コンピューターの能力が過去数十年にわたり加速度的に向上してきたことには疑いがありません。

 しかし近年、回路の微細化のペースが落ちていることから、「ムーアの法則は終わりを迎えた」とする指摘が相次いでおり、マシンの性能やコストの改善が止まるのではないかという懸念も生まれています。そこでメーカー各社は、汎用処理装置であるCPUにすべての仕事をさせるのではなく、処理の種類に応じた専用チップを搭載し、異なる複数のチップに負荷を分散させることで性能を向上させる戦略を取り始めています。

 CPU以外の処理装置で最もメジャーなのはGPUですが、最近では機械学習に特化したハードウェアが続々登場しており、グーグルが「TPU」、アマゾンやマイクロソフトが「FPGA」を使ってクラウドの機械学習処理を高速化しています。日本でも富士通が「DLU」、ルネサスが「DRP」を開発するなど、この領域はいま半導体で最も熱い分野の一つとなっています。Dell EMCが今年後半に発売するサーバーは「IPU」を搭載し、機械学習処理でGPUの何倍ものスピードが期待できるとのこと。

 性能の壁に当たる度、別の道が浮かび上がってくる。テクノロジーの世界の面白さだと思います。(日高彰)

【関連記事はこちら】
機械学習専用サーバーを投入 上原執行役員「台数でなく付加価値追求」へ――Dell EMC
楽天の基盤を支える新FPGA 200Gbpsの高速通信を汎用サーバーでも――インテル