引用元HP:IBM Cloud公式HP(https://www.ibm.com/jp-ja/cloud/gpu)
IT大手の世界的企業IBMにより提供されているクラウド上のGPUサービス「IBM Cloud」について取り上げています。GPUサービスとしての特徴や、料金目安、スペック情報、運営元情報などを取りまとめてご紹介していますので、クラウドGPUの導入を検討している方、クラウドGPUサービスの比較をされたい方は、ぜひ参考にしてみてください。
IBM Cloud上で提供されるGPUは、生成AIを活用した新サービスの生成や、従来のAIやアルゴリズムを活用したユーザーニーズなどの予測・分析、財務やEDA、ライフサイエンスなどの分野に用いる計算集約型アプリケーションをより高速化するなど、様々な用途に対応。
視覚分野においては、GPUを駆使することで製品の設計をシュミレーションしたり、製品設計ワークステーションとすること可能。ゲームや3Dモデリング、AR/VRなどの分野でも強みを発揮できるとしています。
IBM Cloud上で提供されるGPUは、ユーザーの用途や目的などのニーズに合わせ、最適なものを選べるように、豊富なオプションが取り揃えられています。VCPUsの数値では最小8から最大64まで。RAMの数値は最小64 ㎇から最大320 ㎇まで。帯域幅は16 Gbpsから128 Gbpsまでがカバーされています。
クラウドGPUサービスの導入や運用を検討する際、心配事のひとつとして挙げられるのは、運営元の会社の信頼性やサポート体制といった面ではないでしょうか。とりわけ海外の企業によって提供されるクラウドGPUサービスの場合、日本人エンジニアによる日本語でのサポートに対応しておらず、英語などでやり取りしなければならないというケースもあります。
その点、IBMはアメリカの企業ですが、第二次大戦以前の1920年代より日本との取引があり、1959年にはそれまでの代理店が日本アイ・ビー・エム株式会社に社名変更。以来、現在に至るまで、日本におけるIBM製品やサービスのサポート体制を確固たるものとしています。そうした安心感は、さすがIBMといったところではないでしょうか。
LIBM Cloudのポイント
上記でご紹介した内容の他にも、IBM Cloud上で提供されるGPUは、生成AIの導入をスムーズに行えるように最適化されていたり、IBMが誇る強固なセキュリティ体制下で運用できるといったメリットも見逃せません。
これまでの事例に関しても、かのNASAとIBMの協力体制により気候変動の分析に活用されたり、法曹分野において、法的文書の開示手続きに必要な時間を70%短縮することに成功したといったケースが紹介されています。
GPU |
VCPUs |
RAM |
帯域幅 |
1 x NVIDIA L4 24 GB |
16 |
80GB |
32Gbps |
2x NVIDIA L4 24 GB |
32 |
160 GB |
32Gbps |
4x NVIDIA L4 24 GB |
64 |
320 GB |
32Gbps |
1x NVIDIA L40S 48 GB |
24 |
120 GB |
32Gbps |
2x NVIDIA L40S 48 GB |
48 |
240 GB |
32Gbps |
1x NVIDIA Tesla V100 16 GB |
8 |
64 GB |
32Gbps |
1x NVIDIA Tesla V100 16 GB |
16 |
128 GB |
32Gbps |
2x NVIDIA Tesla V100 16 GB |
16 |
128 GB |
32Gbps |
2x NVIDIA Tesla V100 16 GB |
32 |
256 GB |
32Gbps |
◆料金は個々の案件ごとに、見積もりとなる方式。
※2024年10月16日時点での情報です。
コスパ
シェア
ラインナップ