AIRA — マルチテナントAI対話基盤
AIRA — Multi-tenant Conversational AI Platform
社内ナレッジベースと外部SaaSを横断検索し、ストリーミング応答を返すRAG(検索拡張生成)エンジン。pgvectorによる意味検索、HyDE再ランキング、関数呼び出しルーティング、応答トレーシングを核に、LLMプロバイダのロックインを排した抽象レイヤを設計。
ライブデモ
実際のアプリケーション画面のプレビュー
AIRA アシスタント
オンライン
注文した商品がまだ届きません。追跡番号はTK-29384です。
お問い合わせありがとうございます。追跡番号TK-29384を確認いたしました。現在、お荷物は配送センター(大阪)を出発し、本日18:00〜20:00の間にお届け予定です。配送状況をリアルタイムで確認できるリンクをお送りしますね。
ありがとう!それと、返品したい商品もあるのですが。
かしこまりました。返品についてお手伝いいたします。ご購入履歴を確認したところ、以下の商品が返品対象期間内です: • ワイヤレスヘッドホン WH-200(¥12,800) • USBハブ 7ポート(¥3,980) どちらの商品の返品をご希望ですか?
課題
単純なベクトル類似度だけでは長文ドキュメントや略語混じりの業務用語に対する検索精度が60%前後で頭打ちになり、生成された回答に根拠が欠けるハルシネーションが残った。さらに単一プロバイダ依存のレイテンシとコスト変動が見積もりを困難にしていた。
ソリューション
HyDE(Hypothetical Document Embeddings)+ BM25ハイブリッドスコアリングで第一段検索を行い、cross-encoder再ランキングで上位15件に絞り込む構成を採用。LLM Gateway層を独自に設計し、OpenAI/Anthropic/Bedrock/ローカルLlamaを重み付きフォールバックで切替。OpenTelemetryのカスタムスパンでプロンプト、コンテキスト、トークン数、コストを全て追跡可能にした。
成果
- 社内検証セットで回答根拠提示率 94.2% を達成
- ハイブリッド検索により nDCG@10 が 0.62 → 0.88 に向上
- LLM Gatewayフォールバック導入後、月次コスト変動幅を ±8% に安定化
- 平均初回トークン応答 (TTFT) を 780ms に短縮
Measured Impact
検索 nDCG@10
0.88
+42%
回答根拠提示率
94.2%
+31pt
平均TTFT
780ms
-36%
月次コスト変動
±8%
What it does
検索と生成
ハイブリッド検索
密ベクトル + BM25 + HyDE書き換えで略語や社内用語にも強い検索を実現。
引用付き応答
回答文の各主張に対して出典ドキュメントIDと該当箇所のスパンを返却。
プラットフォーム
LLM Gateway
OpenAI / Anthropic / Bedrock / Ollamaを統一インターフェースで扱い、重み付きフォールバックを実現。
マルチテナント隔離
PostgresのRLSとネームスペース付きHNSWインデックスでテナント境界を強制。
運用性
プロンプトトレーシング
全リクエストをOpenTelemetryスパンで記録し、DatadogとSentryに連携。
コスト可視化
トークン数とモデル別コストをリアルタイムで集計し、テナント別に制限可能。
System Layers
Layered architecture showing components, responsibilities, and data flow.
Layer
Edge / API
認証、レート制限、テナント解決を担うエッジ層。Streamed Server Actionsで段階的UI更新をサポート。
Layer
Orchestration
LangGraphの有向グラフで検索→再ランキング→ツール実行→合成の多段ワークフローを管理。
Layer
Retrieval
密ベクトルと疎ベクトルのハイブリッド検索。日本語はSudachiで形態素分割した独自トークナイザを採用。
Layer
Data & State
会話履歴はPostgres、セマンティックキャッシュはRedis、生ドキュメントはS3で管理。
Layer
Observability
全リクエストにtrace-idを付与し、プロンプト・コンテキスト・コスト・レイテンシを相関分析。
How we built it
Discovery
社内FAQとSlackログから頻出質問カテゴリを抽出し、対話AIで解決可能なユースケースを定量評価。
Deliverables
- ユースケース優先度マップ
- ROI見積もり
- 制約ドキュメント
Offline評価基盤
LLMjudge + 人手ラベリングのハイブリッド評価基盤を構築し、CIで回帰検出できるようにした。
Deliverables
- 評価データセット v1
- CI統合テスト
- 品質ダッシュボード
Architecture & Spike
LangGraph vs 自作オーケストレータ、pgvector vs Qdrantのスパイク検証で技術選定。
Deliverables
- ADR集 (6本)
- ベンチマーク結果
- コスト試算表
Implementation
検索コアとLLM Gatewayを先に実装し、フロントエンドは薄いストリーミングクライアントに限定。
Deliverables
- tRPCサービス
- LLM Gatewayライブラリ
- Next.jsクライアント
QA & Red Team
プロンプトインジェクションとPII漏洩のレッドチーム演習を実施し、検出できなかった攻撃を回帰テスト化。
Deliverables
- 脅威モデル
- Red Teamレポート
- ガードレール設定
Soft Launch
社内10名の限定公開でフィードバックループを高速化。トレースから失敗パターンを自動収集。
Deliverables
- ソフトローンチKPI
- 失敗事例カタログ
Iteration
週次で検索品質 / コスト / レイテンシのトレードオフを評価し、LLM Gatewayの重みを調整。
Deliverables
- 週次レビュー議事録
- 可観測性改善PR
Delivery Timeline
- P0Done2026-03-05
検索評価ベンチマーク構築
社内FAQ 3,200件を正解付きクエリセットとして整備し、Recall@k / nDCG@k の自動計測パイプラインを構築。
- P1Done2026-03-18
ハイブリッド検索パイプライン
pgvector + BM25 + HyDE を統合した検索コアを実装。クエリ書き換えエージェントを組み込み。
- P2In Progress2026-04-10
LLM Gateway と観測性
プロバイダ非依存のルーティング層と OpenTelemetry によるプロンプトトレーシングを導入。
- P3In Progress2026-04-22
マルチテナント隔離
Row-level Security + ネームスペース付きベクトル分離でテナント境界を強制。
- P4Planned2026-05
パートナー向け限定公開
静岡県内の協業5社を対象にしたクローズドベータ。SLAとコストダッシュボードを提供。
Who built it
Roles
- MLエンジニア
- バックエンド/プラットフォーム
- フルスタック
Tools & Platforms
Frontend
Backend
Data
Infrastructure