中国Baiduのクラウド・コンピューティング・サービスにTesla P40が導入

中国Baiduのディープ・ラーニング向けクラウド・コンピューティング・サービスにTesla P40

中国Baiduのディープ・ラーニング向けクラウド・コンピューティング・サービス「Baidu Clud’s Deep learning Service」にてPascal世代のNVIDIA Tesla P40が導入されたようです。この導入によって、ディープ・ラーニングのトレーニングと推論を加速させるとしています。

オープンソースのフレームワークであるPaddlePaddleとTensorFlowが使用できるようです。中国AlibabaグループのAliCloudやAmazonのAWS、GoogleやIBMのクラウド・コンピューティング事業の大手に食い込めるかに注目です。

INT8が速いTesla P40

Tesla P40はTesla P100に仕様されているGP100ではなく、そのダウングレード版のGP102が使用されています。64bit浮動小数点数(FP64)の演算や16bit浮動小数点数(FP16)の演算が制限されているようです。しかしより低精度な8bit整数(INT8)モードでは32bit浮動小数点数(FP32)の4倍の計算量をこなすことができ、これによってディープ・ラーニングに関するワークロードを加速することが出来ます。

Tesla P100が様々な演算に用いることが出来るアクセラレーターなのに対して、Tesla P40はINT8を使用するディープ・ラーニングでのみ能力を発揮するアクセラレーターだと言えるでしょう。

ソース

http://insidehpc.com/2017/04/baidu-deep-learning-service-adds-latest-nvidia-pascal-gpus/

https://devblogs.nvidia.com/parallelforall/new-pascal-gpus-accelerate-inference-in-the-data-center/

Add a Comment

メールアドレスの入力は任意です。(公開されることはありません)