カスタマーサポートと AI の相性
中小企業のカスタマーサポートは、人手不足と問い合わせ件数増加の板挟みにある。公開情報によれば、LLM の登場によって「定型質問の自動応答」から「複雑な問い合わせの一次対応」までが現実的な射程に入り、導入コストも大幅に下がった。一般的に、問い合わせ総数の 30〜50% を AI が一次対応し、複雑案件のみ人間にエスカレーションする構成が標準形になりつつある。
チャットボット設計の基本
AI チャットボットを設計する際、最初に決めるべきは「スコープ」である。全方位対応を目指すと品質管理が破綻するため、初期リリースは 3〜5 カテゴリに絞る。例えば EC 事業者なら、注文状況確認・返品手続き・商品仕様・配送日変更の 4 カテゴリ限定で開始する、といった切り方である。
次にエスカレーションルールを明確化する。AI が自信を持てない質問、個人情報を含む案件、クレーム系の感情的な問い合わせは、即座に人間担当に引き継ぐ。KGA IT の支援案件では、信頼度スコアを LLM に自己申告させ、閾値未満の場合は自動的にエスカレーションするロジックを組むのが定番である。
RAG(Retrieval Augmented Generation)の実装
汎用 LLM に社内情報を正確に答えさせるには、RAG の構成が不可欠である。一般的な構成は次のとおり:
- ソース整備:FAQ、製品マニュアル、利用規約、過去問い合わせログを集約
- チャンク分割:1 チャンク 500〜1,000 トークン程度に分割
- 埋め込みベクトル生成:OpenAI・Voyage・Cohere などの埋め込みモデルでベクトル化
- ベクトル DB 格納:Pinecone、Weaviate、Qdrant、pgvector などに保管
- 検索+生成:ユーザー質問のベクトル近傍を取得し、LLM にコンテキストとして渡す
中小企業規模であれば、Pinecone や Supabase(pgvector)などマネージドサービスを使い、月額 50〜200 USD 帯で本格運用が可能である。自社ホスティングにこだわる場合は Qdrant や Weaviate の OSS 版が選択肢になる。
FAQ 自動化のアプローチ
FAQ ページはカスタマーサポートの基礎資産だが、多くの中小企業で「古いまま放置されている」状態にある。AI を使った FAQ 自動化では、以下のアプローチが有効である。
第一に、過去問い合わせログからの FAQ 候補抽出。3〜6 か月分の問い合わせメールを LLM でクラスタリングし、頻出パターンを FAQ 草案として生成する。第二に、既存 FAQ の鮮度検査。チャットボットが「回答できなかった質問」を自動記録し、週次で担当者がレビュー・追記する運用にする。第三に、回答の自動バージョニング。FAQ 更新のたびに履歴を残し、過去回答との矛盾検知を自動化する。
個人情報とコンプライアンス
AI カスタマーサポートでは、問い合わせ内容に個人情報が含まれるケースが日常的である。公開情報によれば、個人情報保護法の観点で以下の点に注意が必要である:
- 外国にある第三者への提供に関する同意取得(利用する LLM サービスの所在地による)
- 問い合わせ履歴の保存期間と削除プロセス
- オペレーターとの画面共有時の個人情報マスキング
- ログを LLM のファインチューニングに使う場合の再同意
一般的には、Web サイトのプライバシーポリシーに AI 利用を明記し、チャット開始時に「AI が一次対応する旨」を通知する運用が標準である。
ROI と運用指標
中小企業での AI カスタマーサポートの典型的な成果指標は次のとおりである:
- 自己解決率:AI のみで完結した問い合わせ割合(目標 30〜50%)
- 初回応答時間:問い合わせから初回回答までの時間(目標 数秒〜数十秒)
- エスカレーション率:人間担当に引き継がれた割合(業種によるが 20〜40% が現実的)
- 顧客満足度(CSAT):AI 対応後のアンケートスコア
- FAQ カバレッジ:回答できた質問の割合と、未回答質問の改善サイクル
KGA IT のカスタマーサポート導入支援では、PoC 期間を 6〜8 週間に設定し、初期スコープで上記指標を測定してから本番展開する段階設計を推奨している。AI 導入は「完成したシステムを置く」ではなく、「運用しながら育てる」継続的なプロジェクトである点を、経営層と現場の双方に共有しておくことが成功の前提となる。
ハルシネーション対策と品質管理
AI カスタマーサポート最大のリスクは、LLM が事実と異なる情報を自信を持って返す「ハルシネーション」である。RAG でソースを制限しても完全には消えないため、以下の多層防御が推奨される。第一に、価格・仕様・ポリシーなど誤答が致命的になる領域は AI 回答を禁止し、人間対応への固定ルーティングを設定する。第二に、AI 回答に必ず「参照した FAQ・マニュアルの該当箇所リンク」を明示させ、ユーザー自身が原典確認できるようにする。第三に、週次で無作為に AI 回答 30〜50 件をサンプリングし、品質担当者が事実確認を行う。
公開情報によれば、LLM は「わかりません」と答えることを苦手とする傾向があるため、プロンプトに「情報が不足している場合は必ず不明と回答し、推測で答えないこと」を明示的に指示するだけでも、ハルシネーション発生率が目に見えて下がる。品質は設計と運用の両輪であり、どちらかを怠ると中長期的に顧客信頼を損なうことになる。