AWS、Azure、GCPのGPUインスタンス一覧。価格と性能を比較
こんにちは。データサイエンスチームのtmtkです。
この記事では、各種クラウドコンピューティングサービスでのGPUインスタンスのリストをまとめます。
はじめに
GPUはディープラーニングの学習・訓練の高速化に必要不可欠です。
Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)など、クラウドコンピューティング業者の各社がGPUコンピューティングリソースを提供しています。クラウドコンピューティング業者もGPUの種類もそれぞれたくさんあるため、いざ利用する場面になると、どのインスタンスタイプがなんのGPUを搭載していてそれがどの程度の価格と性能なのかがよくわからなくなることが私には非常にたくさんあります。私はこれまで10回ほど同じことを調べているので、調べなおして表としてまとめてここに記載しておきます。
いずれも執筆時点(2019年10月)での情報であり、抜け漏れや今後の変更があるかもしれません。
AWS, Azure, GCPのGPUの一覧
GPU | VRAM | AWS | Azure | GCP | その他 |
---|---|---|---|---|---|
K80 | 12GB | p2.xlarge $0.9/h | NC6 ¥100.80/h | $0.45/h | Google Colab |
V100 | 16GB | p3.2xlarge $3.06/h | NC6s v3 ¥342.72/h | $2.48/h | |
T4 | 16GB | g4dn.xlarge $0.526/h | $0.35/h | ||
P100 | 16GB | NC6s v2 ¥231.84/h | $1.46/h | Kaggle Kernel | |
M60 | 8GB | g3s.xlarge $0.75/h | NV6 ¥122.304/h | ||
P40 | 24GB | ND6s ¥231.84/h | |||
P4 | 8GB | $0.60/h |
注意
- GPUはすべてNVIDIA Teslaシリーズ
- VRAMはGPUに搭載されているメモリの量
- インスタンスタイプは各社ごとに一番安いものを抜粋(16xlargeなどでなく一番小さいインスタンスを掲載)
- スポットインスタンスやプリエンプティブルGPUは考慮しない
- AWSはバージニア北部(us-east-1)リージョンでの価格
- Microsoft Azureは米国西部2リージョンでの価格
- 期間限定で割引価格のPromoシリーズは無視しています
- GCPはus-central-1リージョンでGPUのみの価格
- Kaggle KernelとGoogle ColabはAWS, Azure, GCPとは性格の異なる無料のサービスだが参考のために記載
- Kaggle KernelとGoogle ColabのGPUについては、GPUを有効にした上で以下のプログラムで搭載GPUを確認
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())- ただし、Google Colabについては、K80とT4がランダムに割り当てられているらしい
- Amazon Elastic Inferenceなどは表に入れていません
性能について
各GPUの性能についてはいろいろなベンチマークが行われています(参考1、2、3、4、5)が、すべてのGPUに対して行われているものは見つかりませんでした。これらの情報を総合して眺めてみると、性能が高いものは料金も高いという関係になっているような気がします。ただし、AWSのTesla T4 GPU(g4dnインスタンスタイプファミリー)は割安に見えます。
比較・まとめ
どのクラウドについても、同じGPUのインスタンスはだいたい同じ料金になっています。ただし、AWSのTesla T4 GPU(g4dnインスタンスタイプファミリー)は比較的割安であり、1つのGPUを搭載したいろいろなCPU、メモリ量のインスタンスタイプがあるのは魅力的です。GCPはAWS, AzureとちがってGPU単体の料金であり、どのGPUに対しても柔軟にCPUとメモリの量を調節できるところが魅力です。
個人的には、とりあえずGPUによる高速化がほしいという場合は安価なK80かT4を、巨大なモデルを高速に訓練したい場合は高価ですが高性能なV100を使うといいのではないかという気がします。
参考文献
- Amazon EC2 P2 インスタンス| AWS
- Amazon EC2 P3 インスタンス | AWS
- Amazon EC2 G3 インスタンス | AWS
- Amazon EC2 G4 Instances — Amazon Web Services (AWS)
- AI インファレンス 向け NVIDIA T4 Tensor コア GPU | NVIDIA Data Center
- オンデマンドインスタンスの料金 – Amazon EC2 (仮想サーバー) | AWS
- Azure Linux VM sizes – Accelerated compute | Microsoft Docs
- 料金 – Linux Virtual Machines | Microsoft Azure
- GPUs pricing | Compute Engine Documentation | Google Cloud
テックブログ新着情報のほか、AWSやGoogle Cloudに関するお役立ち情報を配信中!
Follow @twitterデータ分析と機械学習とソフトウェア開発をしています。 アルゴリズムとデータ構造が好きです。
Recommends
こちらもおすすめ
-
Amazon EC2 F1インスタンスを試してみた!
2017.12.22
-
約65%のコスト削減!AWS開発環境を見直すコスト最適化で無駄を排除
2023.12.19
Special Topics
注目記事はこちら
データ分析入門
これから始めるBigQuery基礎知識
2024.02.28
AWSの料金が 10 %割引になる!
『AWSの請求代行リセールサービス』
2024.07.16