Skip to content
記事一覧に戻る
Models10 min

DeepSeek の日本語性能を測る: JMMLU・JCommonSenseQA・AI王 の独自検証

Measuring DeepSeek's Japanese: JMMLU, JCommonSenseQA, AI-Oh Benchmarks

Misaki HayashiAI Research Analyst
2026-04-2010 min
DeepSeekJapanese NLPBenchmarksJMMLUEvaluation

なぜ独自検証が必要か

公式リーダーボードの英語スコアは充実してきたが、日本語タスクは依然として情報が散逸している。本稿では Stability-AI の lm-evaluation-harness 日本語ブランチをベースに、DeepSeek V3.2 / R1 を含む 5 モデルを共通条件で測定した結果を共有する。

評価条件

  • データセット: JMMLU (50 サブジェクト)、JCommonSenseQA、AI王 dev split
  • few-shot: 5-shot for JMMLU, 0-shot for JCommonSenseQA, 0-shot for AI王
  • 温度 0、トップ-p 1、最大出力 256 トークン
  • 評価器: 厳密一致 + 正規化(記号・空白・全角半角)

結果

| モデル | JMMLU | JCommonSenseQA | AI王 | | --- | --- | --- | --- | | DeepSeek V3.2 | 73.4 | 84.1 | 71.8 | | DeepSeek R1 | 75.2 | 85.6 | 73.3 | | Qwen2.5-72B-Instruct | 71.6 | 82.4 | 69.5 | | Claude 3.5 Sonnet | 78.9 | 88.7 | 76.4 | | GPT-4o-mini | 70.1 | 81.3 | 68.2 |

DeepSeek 系列は同価格帯(GPT-4o-mini)と比較すると明確に上位、Qwen2.5-72B-Instruct とほぼ同等で R1 がやや優位、上限の Claude 3.5 Sonnet には 3-5 ポイント届かない、というのが社内 R&D での結論である。

質的観察

  • 古文・漢文の知識は Qwen2.5 がやや強い
  • 数学・物理は R1 が圧倒的に安定(推論プロセスを内部で展開する効果)
  • 法律・医療の専門タスクは Claude 3.5 Sonnet が抜きん出る
  • 日常会話の自然さは GPT-4o-mini が依然として高い

プロンプト設計の留意点

DeepSeek 系列は日本語の few-shot 例が「答えのみ短文」のフォーマットを好む傾向があり、説明込みの few-shot を渡すと回答が冗長化しがちである。`Final Answer:` プレフィックスでの末尾抽出を強く推奨する。

```python SYSTEM = "あなたは日本語の試験問題を解くアシスタントです。説明は不要です。" USER = """問題: {question} 選択肢: A. {a} B. {b} C. {c} D. {d} Final Answer:""" ```

まとめ

DeepSeek 系列は日本語タスクでも「2026年時点で API 単価あたりの精度がほぼ最強」という位置づけで、コスト最適化を優先する SMB 案件には素直に選びやすい。最高精度が必要なら Claude 3.5 Sonnet/Opus 4.5、知識特化型は Qwen2.5、汎用日常会話は GPT-4o-mini、という棲み分けが運用上は機能する。

まずは無料相談から

お客様のIT課題をお聞かせください。最適なソリューションをご提案いたします。

お問い合わせはこちら