AIがどうやって答えを作るか
利用案内AIの技術的な仕組みを解説します。
全体フロー
1
質問を受け取る
2
キーワード分析 → RAG戦略を自動選択(またはユーザー指定)
3
選ばれた戦略で「証拠」を検索
4
証拠をLLMに渡して回答生成
5
根拠付き回答 + エスカレーション判定を返す
4つのRAG戦略
純粋ベクトル検索
FAQをEmbedding→コサイン類似度上位k件
Embedding使用LLM未使用(検索時)
意味+キーワード検索
ベクトル×0.62 + 語句一致×0.22 + 完全一致×0.12 + ブースト×0.04
Embedding使用LLM未使用(検索時)
長文構造検索
見出しをパース→キーワードスコアで節を絞る
Embedding不要LLM未使用(検索時)
ファイル探索型検索
glob → grep → readRange
Embedding不要LLM未使用(検索時)
ポイント: 通常、LLMは回答生成の1回だけ呼ばれます。ただし戦略比較モード(2つ以上の戦略を選択)では、各戦略ごとに1回ずつ呼ばれます。
使用AI技術
Embeddingモデル
プロバイダー: OpenAI
モデル: text-embedding-3-small
ベクトル次元数: 1,536次元
用途: FAQテキスト全件を事前にベクトル化してインデックス構築
LLM(回答生成)
プロバイダー: Anthropic
モデル: Claude Haiku
用途: 証拠がある場合のみ呼び出し(根拠なし時は呼ばない)
出力: 構造化JSON(answerText / grounded / shouldEscalate / usedEvidenceIds)
ハイブリッドスコア重み
- • ベクトル類似度: 62%
- • 語句一致: 22%
- • 完全一致補正: 12%
- • カテゴリブースト: 4%
自動選択のしくみ
「規約」「失効」「個人情報」→ 長文構造検索
「最新」「更新」「ファイル」→ ファイル探索型検索
「ポイント」「フォーム」「アンケート」→ 意味+キーワード検索
その他→ 純粋ベクトル検索(ベースライン)
推奨戦略で証拠なし → 全戦略を実行してスコア最上位へ自動フォールバック