このページでは、GPU「NVIDIA A100」の特徴や利用例、スペックを紹介しています。GPUは、高性能なものを導入するほど消費電力が大きく、運用コストもかさみがちです。サーバーを自社で揃えるのも一つの選択肢ですが、
コスト削減や手間を考えるなら「クラウドGPUサービス」に頼るという方法もあります。
当サイトでは、クラウドGPUサービスの中でも特徴的な強みを持つメーカーも特集しているので、GPU選びの参考にしてください。
NVIDIA A100のGPUメモリの容量には40GBモデルと80GBモデルがあり、どちらのモデルもTensorコア432・CUDAコア6,912です。AI開発には大規模な計算処理が必要となりますが、TensorコアとTensor Float (TF32)を利用すれば、パフォーマンスが最大でも20%向上します。
また、推論ワークロードの最適化ができるため、ディープラーニング推論への活用が可能です。40GBモデルと80GBモデルを比較すると、80GBの方が1.25倍のデータを処理できます。また、CPUと比較すると、ビックデータ分析ベンチマークで83倍ものデータを処理することが可能です。
前世代と比べてFP32とFP16を使用してFP32演算を行うため、演算時の処理性能が向上しています。処理性能は312TFLOPSで、V100よりも19.87倍の性能を実現。推論時の性能も1248TOPsと、V100より20倍高い性能を誇っています。
最大消費電力に関しては400Wと、前世代300Wに比べて増加していますが、前世代よりも20倍のAI性能を引き出せるので楽に処理が行えるようになります。NVIDIA A100for PCIeに関しては、40GBが最大消費電力250W、80GBが300Wと電力消費量が控えめです。
NVIDIA A100は大規模なデータ分析が行えます。計算処理能力が高く、メモリ帯域が広いため処理速度が速いので、大規模な処理も実行可能です。
また、Tensorコアの搭載によりV100よりも処理時間が早く、従来10時間かけていた倍精度シミュレーションを4時間で完了できます。推論ワークロードの最適化ができ、複数AIモデルの運用も可能。V100と比較してパフォーマンスが最大20倍アップしたので、ディープラーニングトレーニングの時間も短縮できます。
▼横にスクロールできます
A100 80GB PCIe | A100 80GB SXM | |
---|---|---|
FP64 | 9.7 TFLOPS | - |
FP64 Tensor コア | 19.5 TFLOPS | - |
FP32 | 19.5 TFLOPS | - |
Tensor Float 32 (TF32) | 156 TFLOPS | 312 TFLOPS* | - |
BFLOAT16 Tensor コア | 312 TFLOPS | 624 TFLOPS* | - |
FP16 Tensor コア | 312 TFLOPS | 624 TFLOPS* | - |
INT8 Tensor コア | 624 TOPS | 1248 TOPS* | - |
GPU メモリ | 80GB HBM2e | 80GB HBM2e |
GPU メモリ帯域幅 | 1,935 GB/秒 | 2,039 GB/秒 |
最大熱設計電力(TDP) | 300W | 400W |
マルチインスタンス GPU | 最大 7 基の MIGs @ 10GB | 最大 7 基の MIGs @ 10GB |
フォーム ファクター | PCIe デュアルスロット空冷 またはデュアルスロット液冷 |
SXM |
相互接続 | NVIDIA NVLink Bridge ブリッジ 2 GPU 用: 600GB/秒 PCIe Gen4: 64GB/秒 |
NVLink: 600 GB/秒 PCIe Gen4: 64 GB/秒 |
サーバー オプション | 1~8 GPU 搭載のパートナー および NVIDIA-Certified Systems™ |
NVIDIA HGX™ A100 4、8、16 GPU 搭載のパートナー および NVIDIA-Certified Systems 8GPU搭載の NVIDIA DGX™ A100 |
NVIDIA A100には40GB・80GBモデルがありますが、どちらを導入する場合であっても環境構築や維持にコストがかかります。処理量が多ければ多いほど、見合ったGPUメモリ・コア数・処理性能を用意しなければなりません。
NVIDIA A100をお得に利用するなら、クラウドGPUで導入費用をかけずに利用するのも一つの手です。以下より、コストパフォーマンスに優れたクラウドGPUサービスをご紹介します。
コスパ
シェア
ラインナップ