世代の違い
GB200 は Grace CPU + 2x B200 GPU を NVLink で結合した「GB200 Superchip」を 36 個まで NVLink で繋いだ NVL72 ラックが基本単位。H200 は単独 GPU として既存 H100 SXM5 ノードに差し込みやすい。
性能(FP8 推論)
| 指標 | H200 SXM (1 GPU) | GB200 (1 NVL72) | | --- | --- | --- | | ピーク FP8 | 1,979 TFLOPS | ~144 PFLOPS | | HBM | 141 GB | ~13.5 TB (合計) | | NVLink 帯域 | 900 GB/s | 1.8 TB/s/GPU | | 推論 tok/s 目安 (Llama3-70B) | 中 | 数倍以上 |
国内調達性
- H200: 2026 年時点で国内 IDC 在庫がそれなりに出てきた
- GB200: 国内提供は限定数、データセンター側の電源・冷却対応が前提
- いずれも Tokyo / Osaka に集中、地方拠点は要相談
電力・冷却
- GB200 NVL72: 1 ラック 120 kW 級、液冷必須
- H200: 700 W / GPU、8 GPU ノードで 10-12 kW、空冷既存施設で運用可
地方の既存 IDC では H200 中心、新設の AI 専用 IDC(Inzai、Kobe 新設拠点等)で GB200 が導入され始めている。
3 年 TCO 試算(推論用途)
| 構成 | 初期費用 | 月運用費 | 3 年総額 | | --- | --- | --- | --- | | H100 80GB ×8 ノード | 5,500 万 | 100 万 | 1.2 億 | | H200 141GB ×8 ノード | 6,800 万 | 110 万 | 1.4 億 | | GB200 NVL72 (1/8 共有想定) | 月 2,000 万円課金 | - | 7.2 億 |
純 GPU 時間あたりの単価は GB200 のほうが優れるが、絶対コストが大きいため、相応の常時稼働ワークロードがないと償却が難しい。
推論ワークロード適性
- 数百同時接続の社内 AI 基盤 → H200 ノード
- 大規模 SaaS の AI 推論 → GB200 NVL72(共有 IDC)
- マルチテナント API 提供 → GB200 NVL72
まとめ
国内 SMB が単独で GB200 を保有する経済合理性はほぼなく、GMO / さくら / IDC フロンティア等の共有 GB200 サービスを利用するのが現実解。SMB のオンプレ AI は H200 中心で構成し、ピーク需要は外部 GB200 へオフロード、というハイブリッドが組みやすい。