FineTune LoRA JP — Pipeline de Fine-Tuning para Domínios Jurídico/Médico
LoRA-JP — Japanese Domain LoRA Fine-tuning Pipeline
Pipeline de fine-tuning LoRA/QLoRA com Unsloth para LLMs em japonês especializados em jurídico e médico. Protótipo de P&D em validação interna.
Demonstração ao Vivo
Prévia da interface real do aplicativo
Training curve
VRAM usage
base weights
16.4 GB (4bit)
adapters + kv
31.6 GB
Checkpoint registry
internal benchmark · 社内検証| ckpt | base model | dataset | adapter | F1 | status |
|---|---|---|---|---|---|
| ckpt-4212 | Qwen2.5-32B | jp-legal-42k | 148 MB | 0.884 | deployed |
| ckpt-4198 | Llama-3.1-70B | jp-medical-18k | 312 MB | 0.871 | eval |
| ckpt-4180 | Qwen2.5-32B | jp-finance-26k | 148 MB | 0.852 | deployed |
| ckpt-4155 | Phi-3-14B | jp-customer-94k | 82 MB | 0.818 | archive |
| ckpt-4142 | Qwen2.5-32B | jp-legal-42k (v1) | 148 MB | 0.806 | archive |
Domain benchmark
base vs tunedHot-swap adapter
liveDesafio
Modelos base genéricos performavam mal em terminologia jurídica e médica em japonês, e o custo de full fine-tuning era proibitivo para iteração rápida em P&D.
Solução
Pipeline reproduzível que combina QLoRA 4-bit com Unsloth para acelerar treino em hardware único, datasets curados de jurisprudência e literatura médica JA, e avaliação automatizada com prompts especializados. Operado como laboratório interno.
Resultados
- Treino de 7B em 11h numa única RTX 4090 (dados internos)
- Acurácia em QA jurídico JA: +18% sobre baseline (dados internos)
- Custo de iteração reduzido em 92% vs full fine-tuning (dados internos)
- 5 adaptadores LoRA shipados para validação interna
Measured Impact
学習スループット
1.9x
vs HF標準
社内タスク精度
+14%
内部評価
同時アダプタ数
3
vLLM dynamic
学習コスト
A100 40GB x1
単一GPU
What it does
学習
QLoRA 4bit
bitsandbytes+PEFTでVRAM消費を最小化。
選好学習
TRL DPOTrainerで好ましい応答を学習。
サービング
動的LoRA切替
vLLMホットスワップで再起動なし切替。
複数アダプタ多重化
同一ベースモデルで3系統のアダプタ同時公開。
System Layers
Layered architecture showing components, responsibilities, and data flow.
Layer
データ層
学習用ペアをParquetで版管理。
Layer
学習層
QLoRAでVRAM節約しつつ選好学習まで統合。
Layer
サービング層
複数アダプタを同一ベースモデルで多重化。
How we built it
データ設計
SFT/DPO用のプロンプト・応答ペアを設計。
Deliverables
- スキーマ
- サンプル500件
学習パイプライン
Unsloth+TRLでジョブをYAML化。
Deliverables
- 学習ジョブYAML
- 再現スクリプト
評価接続
Kotobaハーネスと自動連携。
Deliverables
- CIジョブ
- 差分レポート
サービング検証
vLLMでアダプタ同時提供の負荷試験。
Deliverables
- 負荷試験レポート
- 運用手順書
Delivery Timeline
- Phase 1In Progress2026-05
データ前処理
社内文書をSFT/DPO形式に変換するETLを整備。
- Phase 2Planned2026-06
Unsloth学習基盤
QLoRA学習ジョブをKubernetesで再現可能化。
- Phase 3Planned2026-07
vLLMホットスワップ
dynamic LoRA loadingを本番類似環境で検証。
- Phase 4Planned2026-09
評価ループ統合
Kotoba評価ハーネスと接続し回帰テスト化。
Who built it
Roles
- MLエンジニア (リード)
- データエンジニア
Tools & Platforms
Backend
Infrastructure
Other
Pensando em um projeto semelhante?
Propomos a melhor solução para as necessidades do seu negócio.
Consultar Sobre Seu Projeto