Skip to content
포트폴리오 목록
AI / 머신러닝In Development

Mirai Multimodal — 멀티모달 RAG 기반

Mirai Multimodal — Multimodal RAG Platform

PDF·도면·표·이미지를 동시에 인덱싱하는 일본어 멀티모달 RAG R&D 프로토타입입니다.

2026 내부 R&D 진행 중 2026-04
#マルチモーダル#RAG#ベクトル検索#OCR#R&D

라이브 데모

실제 애플리케이션 화면 미리보기

DEMO
app.mirai.jp/dashboard
マルチモーダル
27ドキュメント · 4時間音声 · 2.3GB動画を横断検索384ms 応答

検索パイプライン

クエリ埋め込み

8ms

ベクトル検索 (HNSW)

14ms

再ランク (ColBERT)

22ms

LLM統合

340ms

経営会議議事録_2026Q1.pdf

p.14
94.0%

半導体規制については、輸出管理令の改正案が3月に施行される見込み。対象品目は先端ノード向け装置が中心となる。

戦略レポート_地政学.pdf

p.8
88.0%

各国の規制動向を踏まえ、サプライチェーンの二重化を推奨。国内調達比率を現行32%から48%まで引き上げる計画。

法務メモ_輸出管理.pdf

p.2
81.0%

該当品目の判定はECCNコードと仕向地の組合せにより決定される。社内事前審査フローの徹底が必要。

과제

텍스트 전용 RAG는 도면·수식·표를 누락해 일본 제조·법무 문서 답변이 불완전했습니다.

솔루션

ColPali·Nougat·layout-parser를 조합한 페이지 단위 비전 임베딩과 텍스트 임베딩을 하이브리드 검색으로 결합했습니다.

성과

  • 내부 평가에서 도면 포함 질의 정확도 +27 포인트
  • 표 포함 질의 환각률 18% → 6%
  • 1만 페이지 인덱싱 시간 6h → 1h 40m
  • 사내 3개 부문에서 파일럿 운용 시작
Key Metrics

Measured Impact

PDF抽出 F1

0.88

TrOCR単体 0.71

日本語Top-5再現率

0.91

CLIP 0.64

クエリレイテンシ

420ms

p95

インデックス件数

18万+

社内

Features

What it does

マルチモーダル取り込み

PDF図表+レイアウト抽出

TrOCR+LayoutLMv3で表・図中テキストを構造化し、検索対象に含める。

動画シーン+音声統合

PySceneDetectでシーン分割後、フレームキャプションと音声転写を同一ドキュメントとして結合。

検索と応答

ハイブリッドベクトルストア

pgvectorとLanceDBを用途で使い分け、メタデータフィルタ+近似近傍を両立。

Citation付き応答

応答文中の各主張に元ドキュメント(ページ/タイムコード)へのリンクを自動付与。

Architecture

System Layers

Layered architecture showing components, responsibilities, and data flow.

L1

Layer

取り込み層

PDF・音声・動画を各モダリティ特化モデルで前処理し、テキスト・キャプション・レイアウト情報を生成する層。

TrOCRLayoutLMv3Whisper-large-v3BLIP-2PySceneDetect
L2

Layer

埋め込み・蓄積層

bge-m3で統一埋め込みを生成し、メタデータはpgvector、ベクトルはLanceDB、元ファイルはMinIOに格納。

bge-m3 (多言語)pgvector (metadata)LanceDB (vectors)MinIO (blobs)
L3

Layer

検索・生成層

HyDE+RRFで上位候補を選出し、NIM上のLlama 3.3 70Bが根拠リンク付き応答を生成する。

HyDE再ランキングReciprocal Rank FusionNVIDIA NIM Llama 3.3 70BCitationレンダラ
L4

Layer

API層

社内アプリ向けRESTとSSE API、OTelで検索・生成・トークン使用量をトレースする。

FastAPISSEストリーミングOpenTelemetryJWT+RBAC
Development Process

How we built it

Step 1

モダリティ別抽出評価

社内サンプル500件でPDF/音声/動画の抽出精度を個別に測定、モデル選定の根拠を記録。

Deliverables

  • モデル比較表
  • 抽出評価レポート
  • 前処理パイプライン v0.1
Step 2

ハイブリッドストア設計

pgvector(metadata)+LanceDB(vectors)のクエリ戦略を設計、バルクインデックスをテスト。

Deliverables

  • スキーマ設計書
  • インデックススクリプト
  • 性能ベンチ
Step 3

NIM統合と根拠リンク生成

Llama 3.3 70B NIMに接続し、応答内に Citation リンクを埋め込むテンプレート実装。

Deliverables

  • NIM接続モジュール
  • Citationテンプレ
  • 品質評価レポート
Step 4

社内ベータと可観測性

OTelで全リクエストをトレース、ユーザフィードバックに基づきクエリ書き換え層を追加。

Deliverables

  • OTelダッシュボード
  • フィードバック集計
  • クエリ書き換え v0.1
Roadmap

Delivery Timeline

  • Phase 0Done2026-04-25

    モダリティ別前処理プロトタイプ

    PDF/音声/動画の抽出精度を個別評価、bge-m3の日本語検索ベンチ測定。

  • Phase 1In Progress2026-05-30

    統合インデックス構築

    pgvector+LanceDBのハイブリッドストア設計、18万件バルクインデックス。

  • Phase 2Planned2026-07-15

    NVIDIA NIM統合と応答品質

    Llama 3.3 70B NIMを社内VPCにデプロイ、Citation・根拠リンクを応答に含める。

  • Phase 3Planned2026-09-01

    社内横断ベータ

    5部署で社内ベータ運用、フィードバックに基づくクエリ書き換え層を追加。

Team

Who built it

3engineers

Roles

  • マルチモーダルMLエンジニア(代表)
  • 検索基盤エンジニア(業務委託)
  • 評価担当(業務委託)
기술 스택

Tools & Platforms

Backend

FastAPI

Data

pgvector

Other

TrOCRLayoutLMv3Whisper-large-v3BLIP-2PySceneDetectbge-m3LanceDBNVIDIA NIM (Llama 3.3 70B)
Build with KGA

유사한 프로젝트를 고려 중이신가요?

고객의 비즈니스에 최적의 솔루션을 제안해 드립니다.

프로젝트 상담하기