判断軸は 4 つに集約される
DGX Cloud とオンプレのどちらを取るか、という問いは"安い方はどっち"ではない。意思決定を狂わせる 4 軸は、(1) 実効 GPU 時間コスト、(2) 調達リードタイム、(3) 運用人員の希少性、(4) データ主権とネットワーク境界、である。2026 年時点ではこの 4 軸の重みが企業カテゴリごとに明確に違っており、汎用的な"正解"は存在しない。
実効 GPU 時間コスト
DGX Cloud の 2026 年 Q2 公開価格は、H200×8 構成で時間あたりおよそ $37〜42、B200×8 で $58〜65 レンジが国内パートナー経由の建値として観測されている。年間フル稼働(8760 時間)すると H200 ノード 1 台で $324k〜368k 程度。これに対してオンプレ H200 ノードは NVIDIA 純正 DGX H200 で約 $400〜500k、HGX 互換 OEM なら $290〜360k レンジで、電力・冷却・ラック・保守で年間追加 $40〜70k が乗る。稼働率 70% を下回るとオンプレは不利になり、稼働率 90% 超ならオンプレが 2〜3 年で回収されるのが 2026 年の相場観だ。
調達リードタイム
- 〜2025 年を通して H100/H200 の現物リードタイムは 9〜14 ヶ月に達した時期があり、2026 年時点でも B200 は初期出荷分がハイパースケーラーに優先配分されている。国内企業がエンタープライズ向け SI 経由で B200 を押さえる場合、発注から納品まで 6〜10 ヶ月が現実的な見込みだ。この時間軸に耐えられないプロジェクトは、DGX Cloud で先行開発して後からオンプレに移す"段階採用"を取るしかない。
運用人員の希少性
オンプレ運用では、InfiniBand ファブリック設計、NCCL チューニング、Slurm/Kubernetes 統合、電力容量・PUE 管理、GPU 故障時の Triage が必要で、これらを兼務できる人材は国内では極めて少ない。採用できない場合、データセンター側のマネージド運用(さくらインターネット、NTT コミュニケーションズ、KDDI 系など)に外出しすることになり、そのぶんのマージンが乗る。一方 DGX Cloud はほぼ"API を叩くだけ"に運用表面が圧縮されるため、人員の希少性問題を回避できる。
データ主権とネットワーク境界
金融・医療・自治体・防衛関連ワークロードでは、データが物理的にどこに置かれるか、誰が管理者権限を持つか、が契約上の制約になる。DGX Cloud は日本リージョン提供の拡大が進んでいるが、管理プレーンの所在地や運用ベンダーの法的所在地は別途確認が必要だ。完全な国内主権が要件ならオンプレ、もしくは国内ソブリンクラウド(さくら高火力、ABCI 3.0、GMO GPU など)の方が適合しやすい。
典型的な選び方
研究開発で"モデルを試す"段階なら DGX Cloud、本番推論で稼働率 90% 超が見込めるなら自社オンプレ、可変ワークロードが大きいなら両者併用でバースト先として DGX Cloud、ソブリン要件が強ければ国内ソブリン GPU クラウド+オンプレ、という 4 分岐が 2026 年の現実的な分類だ。稼働率の見立てがぶれる新規プロジェクトほど DGX Cloud 先行で始めるべきで、稼働率が固まってから段階的にオンプレに降ろすのが資金効率が高い。
まとめ
"クラウドかオンプレか"は財務的判断ではなく、稼働率・主権・人員の 3 軸を先に定めれば自動的に決まる。NVIDIA 自身も両者を競合とは位置付けておらず、DGX Cloud → オンプレ移行パス、オンプレ → DGX Cloud バーストを同時に売っている。2026 年の実務的な到達点は"ハイブリッドが既定、純オンプレも純クラウドも例外"という状態である。