中国Inspurがサーバー製品AGX-2でTesla V100をサポート

120 Tensor TFLOPSのモンスターGPU Tesla V100をサポートする製品が早くも登場

中国Inspurが8GPUをサポートする2Uラックサーバー製品を発表しました。この製品は先日のNVIDIAのGPU Technology ConferenceでTesla P100を搭載するGPGPUサーバーとして発表された製品で、NVLink 2.0に対応することが明かされていました。Tesla V100と言えば120 Tensor TFLOPSと言う異次元の理論演算性能を誇り、今後のAI開発を支えていくことが期待されているモンスターGPUです。8GPUをサポートするので、理論性能は120 x8で960 Tensor TFLOPSとなります。

Inspurはクラウド・コンピューティング事業なども有名なAlibabaクループやAI開発に力を入れているBaidu、League of Legends、Unreal Engine、クラッシュ・オブ・クランを作っているそれぞれの会社の親会社であるテンセントなどとも深い繋がりのある中国の企業で、この製品の発表は中国のITにおいて大きな意味を持つものとなります。

AIワークロードについては、TensorFlowにてGoogLeNetを用いたトレーニングの実測スピード1165 images/sをマークしたようです。

LINPACK性能が公開

TOP500などにも使用されるLINPACKベンチマークのスコアも公開されています。2Uサーバーでのスコアが29.33 TFLOPSを達成しているようです。Tesla V100の倍精度の理論値は7.5 TFLOPSで、GPUだけで60 TFLOPSの理論値があることになりますので50%を割る効率であることが分かります。

関連記事

NVIDIA Tesla V100と言うモンスターGPU、120 Tensor TFLOPS、5120 CUDAコア

ソース

https://www.top500.org/news/supermicro-inspur-boston-limited-unveil-high-density-gpu-servers/

https://www.hpcwire.com/2017/05/11/inspur-unveil-agx-2-ultra-high-density-ai-computing-server-nvidiatesla-v100-support/

Add a Comment

メールアドレスの入力は任意です。(公開されることはありません)