2 つの巨大 OSS
- Llama 4 Behemoth: 2T パラメータ MoE(活性化 約 240B)、Llama 4 Community ライセンス
- Mixtral Next: 8x140B MoE、Apache 2.0
両者はオープン重みでありながら、ベンチ上は GPT-4o / Claude Opus 4.5 と肩を並べるところまで到達した。
ベンチ(公開値)
| ベンチ | Llama 4 Behemoth | Mixtral Next | Opus 4.5 | | --- | --- | --- | --- | | MMLU-Pro | 84.6 | 82.1 | 87.3 | | GPQA Diamond | 73.8 | 70.4 | 84.5 | | SWE-bench Verified | 64.2 | 58.9 | 71.8 | | MATH-500 | 95.3 | 93.8 | 97.1 |
最高性能には及ばないが、OSS として無料で重みが手に入るのは戦略的価値が大きい。
運用負荷
- Llama 4 Behemoth: H100 80GB ×16 以上推奨、月 800-1,000 万円
- Mixtral Next: H100 80GB ×8 で運用可、月 450-550 万円
- いずれも単一 SMB 単独運用は重く、共有 GPU クラスタでの利用が現実的
ライセンス比較
- Llama 4 Community: 月間アクティブユーザ 7 億超は別契約必要、再配布制限あり
- Apache 2.0 (Mixtral Next): 商用 / 改変 / 再配布全て自由
ライセンスのクリーンさは Mixtral Next が圧勝。
企業向け選定
- 規模感最大化 → Llama 4 Behemoth(共有クラスタ前提)
- ライセンス純度 → Mixtral Next
- コスト最適化 → DeepSeek V3.2 / Qwen3-72B(小型でも高品質)
まとめ
OSS フロンティアは「クローズドモデルにあと一歩」のレベルに到達したが、運用コストの大きさが SMB 単独利用の壁になっている。共有 GPU クラスタやマネージド推論サービス(Together AI、Fireworks 等)経由での利用が、現実的な接点になる。