130PFLOPSという数字だけが一人歩きするディープ・ラーニング専用スーパーコンピューターABCI

3MWで130PFLOPSというあり得ない省電力性能

ABCIと言えば、早ければ2017年後半に登場すると見られている産総研のディープ・ラーニング用スーパーコンピューターです。130PFLOPSという数値だけが一人歩きしており、神威太湖之光と比較する記事が目立ちます。130PFLOPSは半精度もしくは単精度の話で、倍精度120PFLOPSの神威太湖之光と比べるのは明らかに間違いです。

当ブログでも以前にこのような記事を書かせていただきました。

関連記事

ABCIプロジェクト(AI Bridge Cloud Infrastructure)がアツい

  • FLOPS : FLoating-point Operations Par Second、一秒間の浮動小数点数演算の実行数

  • OPS : Operations Par Second、一秒間の演算の実行数

AI-FLOPSという新用語

ABCIはどうやら単精度 ‘または’ 半精度で130PFLOPSを達成するようです。TOP500などで語られるFLOPSは基本的に64bitの倍精度の話なのですが、それと区別するため、低い精度の浮動小数点数演算をAI-FLOPSと呼ぶことにしているようです。130PFLOPSと言う数値を実際に達成するのは16bitの半精度と言うことになるでしょう。

ABCIとはどのようなコンピューターになるか

ABCIというプロジェクトの条件は以下のようになっているようです。

  • 演算資源
    • 合算理論ピーク性能は130PFLOPS以上

    • 浮動小数点数型はIEEE 754標準に準拠、ただし精度は問わない

    • 倍精度での合算理論ピーク性能は33PFLOPS

  • メモリ

    • 合算理論ピークバンド幅は4.4PB/s

    • 合計容量は480TB以上

  • ストレージ

    • 20PB以上の容量

    • 高速かつ高信頼な並列ファイルシステム

    • すべての計算ノードから利用可能

  • 消費電力

    • 3MW以下

    • PUE1.1以下

ソースhttp://www.hpcwire.jp/archives/11490

倍精度が33PFLOPS以上、半精度が130PFLOPS以上だとすれば、FP64:FP16が1:4でスケールしていれば良い計算になります。GPGPUを利用するとすれば、NVIDIAのTesla P100、AMDのRadeon INSTINCT MI25が候補となります。これらは300Wで半精度20TFLOPSを達成しており、3MWで130P AI-FLOPSを達成すると言うとてつもない目標も現実的であると言えます。

消費電力のPUE1.1以下と言う数字ですが、これは冷却システムの消費電力や損失が演算資源が消費する電力の10分の1以下であることを表します。東工大のTSUBAME-KFCの技術が応用されると見られています。

ディープ・ラーニングによって大規模な演算資源の需要が大幅に高まると言われる中、産総研はディープ・ラーニングの応用をバックアップする世界最高峰インフラを世界一省電力なスーパーコンピューターとして実現しようとしています。

関連記事

AMDのZenとVEGAで構成されるシステムは、2017年のTOP500を沸かせるか

Green500が発表、nVIDIA Teslaはやっぱり強かった

One comment

Add a Comment

メールアドレスの入力は任意です。(公開されることはありません)