Skip to content
記事一覧に戻る
Open Source10 min

オープンウェイトのフロンティア: Llama 4 Behemoth と Mixtral Next の到達点

Open Frontier: Llama 4 Behemoth and Mixtral Next Reaching the Top

Kenji WatanabeAI Engineer
2026-04-2010 min
Llama 4MixtralOpen SourceFrontierMoE

2 つの巨大 OSS

  • Llama 4 Behemoth: 2T パラメータ MoE(活性化 約 240B)、Llama 4 Community ライセンス
  • Mixtral Next: 8x140B MoE、Apache 2.0

両者はオープン重みでありながら、ベンチ上は GPT-4o / Claude Opus 4.5 と肩を並べるところまで到達した。

ベンチ(公開値)

| ベンチ | Llama 4 Behemoth | Mixtral Next | Opus 4.5 | | --- | --- | --- | --- | | MMLU-Pro | 84.6 | 82.1 | 87.3 | | GPQA Diamond | 73.8 | 70.4 | 84.5 | | SWE-bench Verified | 64.2 | 58.9 | 71.8 | | MATH-500 | 95.3 | 93.8 | 97.1 |

最高性能には及ばないが、OSS として無料で重みが手に入るのは戦略的価値が大きい。

運用負荷

  • Llama 4 Behemoth: H100 80GB ×16 以上推奨、月 800-1,000 万円
  • Mixtral Next: H100 80GB ×8 で運用可、月 450-550 万円
  • いずれも単一 SMB 単独運用は重く、共有 GPU クラスタでの利用が現実的

ライセンス比較

  • Llama 4 Community: 月間アクティブユーザ 7 億超は別契約必要、再配布制限あり
  • Apache 2.0 (Mixtral Next): 商用 / 改変 / 再配布全て自由

ライセンスのクリーンさは Mixtral Next が圧勝。

企業向け選定

  • 規模感最大化 → Llama 4 Behemoth(共有クラスタ前提)
  • ライセンス純度 → Mixtral Next
  • コスト最適化 → DeepSeek V3.2 / Qwen3-72B(小型でも高品質)

まとめ

OSS フロンティアは「クローズドモデルにあと一歩」のレベルに到達したが、運用コストの大きさが SMB 単独利用の壁になっている。共有 GPU クラスタやマネージド推論サービス(Together AI、Fireworks 等)経由での利用が、現実的な接点になる。

まずは無料相談から

お客様のIT課題をお聞かせください。最適なソリューションをご提案いたします。

お問い合わせはこちら