Skip to content
Back to articles
Model Releases12分

中国オープンウェイト最新動向2026 Q2:Qwen・DeepSeek・GLM・Kimi・MiniMax・Baichuan徹底比較

Chinese open-weight frontier 2026 Q2: Qwen, DeepSeek, GLM, Kimi, MiniMax, Baichuan

井上 拓海オープンソースLLMリサーチャー
2026-04-2512分
中国LLMQwenDeepSeekGLMKimiMiniMaxオープンソースAI/AGI

This article is published in Japanese. Summary in English below:

Chinese open-weight frontier 2026 Q2: Qwen, DeepSeek, GLM, Kimi, MiniMax, Baichuan公開情報による2026年Q2時点で、中国系オープンウェイトは「数」ではなく「品質」で米国フロンティアと並び始めた。Qwen3.5、DeepSeek V4、GLM-5、Kimi K2.6、MiniMax M2.7、Baichuanの最新ラインを、コーディング・長文・コスト軸で冷静に比較する。

公開情報による2026年Q2時点で、中国系のオープンウェイトLLMは数の多さだけでなく、フロンティア性能でも米国主要モデルと真正面から競る段階に入った。本稿では、Qwen、DeepSeek、GLM、Kimi、MiniMax、Baichuanの六系統について、2026年4月時点で公開されている情報をもとに、ベンチマーク・アーキテクチャ・実務的な使い分けを整理する。

第一に挙げるべきはQwen3.5系である。公開情報によれば、Alibabaの最新ラインはdense(0.8B〜27B)とMoE(35B-A3B〜397B-A17B)を揃え、いずれもマルチモーダルかつreasoningデフォルト構成だ。Qwen-Nextアーキテクチャをベースに、特に397B-A17BはBenchLMの中国モデルリーダーボードでreasoningスコア79前後を記録している。商用条件はApache 2.0系で、エッジから大規模推論まで一気通貫で組める数少ない選択肢だ。

第二にDeepSeek V4系。V4 ProはBenchLMで87前後と中国系トップ層に位置し、V4 Flashも軽量帯で75前後と高い。MoEのスパース率を上げつつ、長文処理とコード編集を両立する設計が継続している。価格当たりのトークン経済性が突出して良く、自社推論サーバを持つチームには第一候補となる。

第三はZhipuのGLM-5。744B総パラ/40BアクティブのスパースMoEで、公開情報によればHuawei Ascend 910B上で28.5兆トークンを学習した点が象徴的だ。DeepSeek Sparse Attentionを採用し、長文での実効精度が高い。米中半導体分断下で「Ascendで学習可能」を実証した意義は大きく、地政学的なサプライチェーン分散の文脈でも参照されている。

第四にMoonshotのKimi K2.5/K2.6。K2.5は1Tパラメータ・32Bアクティブ・262Kコンテキストで2026年1月公開、K2.6では公開情報による中国系モデル初のコーディング84点台(Tier A)に到達したと報告される。Agent Swarm機能で最大100エージェントの協調実行が可能とされ、エージェント志向ワークフローでの差別化が顕著だ。

第五はMiniMax M2.7。2026年3月17日リリース、Vals Indexで59.58%(M2.5の53.57%から大幅向上)。動画・音声を含む実用マルチモーダルでの完成度が高く、コンテンツ生成系プロダクトでの採用が増えている。

第六はBaichuanおよび新興のMiMo・StepFun。BaichuanはRAGとエンタープライズ向けの整備が進み、社内ナレッジ統合で堅実な成果を出している。OpenRouterの週次トラフィックでは、Xiaomi・Alibaba・MiniMax・Zhipu・DeepSeek・StepFunの合計シェアが2026年4月時点で45%を超えると報告されており、米系一強の構図は事実上崩れている。

実務的な選択軸は三つだ。第一にライセンス——Apache 2.0系(Qwen、SmolLM風)と独自商用条件(一部のKimi/GLM SKU)の差は商用利用で効く。第二にハードウェア——MoEの巨大モデルはVRAMよりインターコネクトが律速になりやすく、自社GPUクラスタの設計と相性を見るべきだ。第三に言語——日本語性能はQwen3.5とDeepSeek V4が頭一つ抜けるが、用途によってはKimi/GLMの方が安定する局面もある。

KGA ITでは、複数中国系モデルの並列評価とプロンプト互換性検証を含むPoC支援を提供している。`vLLM`/`SGLang`デプロイ、量子化、評価データセット整備までを一気通貫で並走する。

技術的な課題を一緒に解決しませんか?

KGA IT Solutionsは、AI・クラウド・DevOpsの専門チームがお客様の課題に最適なソリューションを提供します。

お問い合わせ