このページでは、GPU「NVIDIA A100」の特徴や利用例、スペックを紹介しています。GPUは、高性能なものを導入するほど消費電力が大きく、運用コストもかさみがちです。サーバーを自社で揃えるのも一つの選択肢ですが、
コスト削減や手間を考えるなら「クラウドGPUサービス」に頼るという方法もあります。
当サイトでは、クラウドGPUサービスの中でも特徴的な強みを持つメーカーも特集しているので、GPU選びの参考にしてください。
NVIDIA A100のGPUメモリの容量には40GBモデルと80GBモデルがあり、どちらのモデルもTensorコア432・CUDAコア6,912です。AI開発には大規模な計算処理が必要となりますが、TensorコアとTensor Float (TF32)を利用すれば、パフォーマンスが最大でも20%向上します。
また、推論ワークロードの最適化ができるため、ディープラーニング推論への活用が可能です。40GBモデルと80GBモデルを比較すると、80GBの方が1.25倍のデータを処理できます。また、CPUと比較すると、ビックデータ分析ベンチマークで83倍ものデータを処理することが可能です。
前世代と比べてFP32とFP16を使用してFP32演算を行うため、演算時の処理性能が向上しています。処理性能は312TFLOPSで、V100よりも19.87倍の性能を実現。推論時の性能も1248TOPsと、V100より20倍高い性能を誇っています。
最大消費電力に関しては400Wと、前世代300Wに比べて増加していますが、前世代よりも20倍のAI性能を引き出せるので楽に処理が行えるようになります。NVIDIA A100for PCIeに関しては、40GBが最大消費電力250W、80GBが300Wと電力消費量が控えめです。
NVIDIA A100は大規模なデータ分析が行えます。計算処理能力が高く、メモリ帯域が広いため処理速度が速いので、大規模な処理も実行可能です。
また、Tensorコアの搭載によりV100よりも処理時間が早く、従来10時間かけていた倍精度シミュレーションを4時間で完了できます。推論ワークロードの最適化ができ、複数AIモデルの運用も可能。V100と比較してパフォーマンスが最大20倍アップしたので、ディープラーニングトレーニングの時間も短縮できます。
京都大学 西浦研究室では、創薬・化学分野におけるAI活用の研究において、NVIDIA A100を搭載したGPUサーバーを導入。特に大規模なグラフニューラルネットワーク(GNN)の学習・推論において、A100の持つ高帯域メモリと演算性能が活かされています。
HPCシステムとの併用で、マルチGPU環境(最大8枚構成)によるスケーラブルな処理が実現され、複数のモデルを並列に学習させる研究スタイルへとシフト。これにより、従来数日単位を要していた実験も大幅に短縮されました。
「あらゆる規模で高速に検証・再構築が可能なAI基盤」として、基礎研究から応用研究までを一気通貫で支える環境が構築されつつあります。今後は、合成可能な化学構造の網羅的探索にもA100の性能が活用される見込みです。
※参照元:HPCテック(https://www.hpctech.co.jp/casestudy/dnj_kyoto_nishiura_lab-2/)
西浦研究室では、創薬支援を目的とした分子構造解析に、グラフニューラルネットワーク(GNN)を活用したAIモデルを導入。初期の導入時からNVIDIA A100を採用し、数千万規模の構造データ処理を現実的なスピードで実行する体制を構築しました。
研究初期では単体GPU構成による実験的な学習・推論が行われていましたが、A100の高速なメモリ帯域と高演算性能によって、試行錯誤のプロセスを数倍に加速。AIモデルの評価やパラメータ調整を短時間で繰り返すことが可能になりました。
この効率性が、後のマルチGPU構成への拡張・最適化へとつながり、研究の成長に不可欠な基盤を築くこととなりました。少数構成でもパフォーマンスを引き出せるA100の柔軟性が、次世代AI研究の起点となっています。
※参照元:HPCテック(https://www.hpctech.co.jp/casestudy/dnj_kyoto_nishiura_lab/)
リチェルカセキュリティでは、NVIDIA A100を活用してサイバー攻撃検知AIの開発を加速。膨大なネットワークトラフィックデータをもとにした学習処理において、従来比で最大5倍以上の学習高速化を実現しています。
同社では、日々の攻撃パターンや不正通信の解析に大量の変数・ログデータを使用しており、モデルの更新頻度も高いことが特徴。A100による処理高速化により、高頻度なモデル更新とリアルタイム検知の両立が可能となり、システムの精度維持と性能安定化に大きく貢献しています。
また、将来的には異常検知AIに限らず、リスク分析や予測型防御への応用も視野に入れており、A100の導入は戦略的インフラ強化の一環となっています。
※参照元:HPCテック(https://www.hpctech.co.jp/casestudy/20210805_ricercasecurity-html/)
▼横にスクロールできます
A100 80GB PCIe | A100 80GB SXM | |
---|---|---|
FP64 | 9.7 TFLOPS | - |
FP64 Tensor コア | 19.5 TFLOPS | - |
FP32 | 19.5 TFLOPS | - |
Tensor Float 32 (TF32) | 156 TFLOPS | 312 TFLOPS* | - |
BFLOAT16 Tensor コア | 312 TFLOPS | 624 TFLOPS* | - |
FP16 Tensor コア | 312 TFLOPS | 624 TFLOPS* | - |
INT8 Tensor コア | 624 TOPS | 1248 TOPS* | - |
GPU メモリ | 80GB HBM2e | 80GB HBM2e |
GPU メモリ帯域幅 | 1,935 GB/秒 | 2,039 GB/秒 |
最大熱設計電力(TDP) | 300W | 400W |
マルチインスタンス GPU | 最大 7 基の MIGs @ 10GB | 最大 7 基の MIGs @ 10GB |
フォーム ファクター | PCIe デュアルスロット空冷 またはデュアルスロット液冷 |
SXM |
相互接続 | NVIDIA NVLink Bridge ブリッジ 2 GPU 用: 600GB/秒 PCIe Gen4: 64GB/秒 |
NVLink: 600 GB/秒 PCIe Gen4: 64 GB/秒 |
サーバー オプション | 1~8 GPU 搭載のパートナー および NVIDIA-Certified Systems™ |
NVIDIA HGX™ A100 4、8、16 GPU 搭載のパートナー および NVIDIA-Certified Systems 8GPU搭載の NVIDIA DGX™ A100 |
NVIDIA A100には40GB・80GBモデルがありますが、どちらを導入する場合であっても環境構築や維持にコストがかかります。処理量が多ければ多いほど、見合ったGPUメモリ・コア数・処理性能を用意しなければなりません。
NVIDIA A100をお得に利用するなら、クラウドGPUで導入費用をかけずに利用するのも一つの手です。以下より、コストパフォーマンスに優れたクラウドGPUサービスをご紹介します。
コスパ
シェア
ラインナップ