AWS, Azure, GCPのGPUインスタンスを比較

Tech

2019.10.24

Topics

 こんにちは。データサイエンスチームのtmtkです。
 この記事では、各種クラウドコンピューティングサービスでのGPUインスタンスのリストをまとめます。

はじめに

 GPUはディープラーニングの学習・訓練の高速化に必要不可欠です。
 Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)など、クラウドコンピューティング業者の各社がGPUコンピューティングリソースを提供しています。クラウドコンピューティング業者もGPUの種類もそれぞれたくさんあるため、いざ利用する場面になると、どのインスタンスタイプがなんのGPUを搭載していてそれがどの程度の価格と性能なのかがよくわからなくなることが私には非常にたくさんあります。私はこれまで10回ほど同じことを調べているので、調べなおして表としてまとめてここに記載しておきます。
 いずれも執筆時点(2019年10月)での情報であり、抜け漏れや今後の変更があるかもしれません。

AWS, Azure, GCPのGPUの一覧

GPU VRAM AWS Azure GCP その他
K80 12GB p2.xlarge $0.9/h NC6 ¥100.80/h $0.45/h Google Colab
V100 16GB p3.2xlarge $3.06/h NC6s v3 ¥342.72/h $2.48/h
T4 16GB g4dn.xlarge $0.526/h $0.95/h
P100 16GB NC6s v2 ¥231.84/h $1.46/h Kaggle Kernel
M60 8GB g3s.xlarge $0.75/h NV6 ¥122.304/h
P40 24GB ND6s ¥231.84/h
P4 8GB $0.60/h

注意

  • GPUはすべてNVIDIA Teslaシリーズ
  • VRAMはGPUに搭載されているメモリの量
  • インスタンスタイプは各社ごとに一番安いものを抜粋(16xlargeなどでなく一番小さいインスタンスを掲載)
  • スポットインスタンスプリエンプティブルGPUは考慮しない
  • AWSはバージニア北部(us-east-1)リージョンでの価格
  • Microsoft Azureは米国西部2リージョンでの価格
    • 期間限定で割引価格のPromoシリーズは無視しています
  • GCPはus-central-1リージョンでGPUのみの価格
  • Kaggle KernelGoogle ColabはAWS, Azure, GCPとは性格の異なる無料のサービスだが参考のために記載
  • Kaggle KernelとGoogle ColabのGPUについては、GPUを有効にした上で以下のプログラムで搭載GPUを確認
  • Amazon Elastic Inferenceなどは表に入れていません

性能について

 各GPUの性能についてはいろいろなベンチマークが行われています(参考12345)が、すべてのGPUに対して行われているものは見つかりませんでした。これらの情報を総合して眺めてみると、性能が高いものは料金も高いという関係になっているような気がします。ただし、AWSのTesla T4 GPU(g4dnインスタンスタイプファミリー)は割安に見えます。

比較・まとめ

 どのクラウドについても、同じGPUのインスタンスはだいたい同じ料金になっています。ただし、AWSのTesla T4 GPU(g4dnインスタンスタイプファミリー)は比較的割安であり、1つのGPUを搭載したいろいろなCPU、メモリ量のインスタンスタイプがあるのは魅力的です。GCPはAWS, AzureとちがってGPU単体の料金であり、どのGPUに対しても柔軟にCPUとメモリの量を調節できるところが魅力です。
 個人的には、とりあえずGPUによる高速化がほしいという場合は安価なK80かT4を、巨大なモデルを高速に訓練したい場合は高価ですが高性能なV100を使うといいのではないかという気がします。

参考文献

tmtk

データ分析と機械学習とソフトウェア開発をしています。 アルゴリズムとデータ構造が好きです。

Recommends

こちらもおすすめ

Special Topics

注目記事はこちら