AIリテラシー RAGアーキテクチャ
カテゴリ: 開発手法・運用
RAG (Retrieval-Augmented Generation) とは
RAG(検索拡張生成)は、LLMが持つ「滑らかな文章作成能力」と、外部データベースが持つ「正確で最新の知識」を組み合わせる技術アーキテクチャです。LLM自体は過去の学習データしか持っていませんが、RAGを使うことで、例えば「昨日の社内会議の議事録」や「今朝発表されたニュース」を即座に参照し、それを踏まえた回答を生成することが可能になります。
技術的には、ドキュメントを意味ベクトル(Embedding)に変換してVector DBに格納し、ユーザーの質問に近いベクトルを持つチャンク(文章の断片)を検索(Retrieve)し、その内容をプロンプトに含めてLLMに生成(Generate)させます。
監査における評価:グラウンディング精度
監査においては、RAGが「正しく情報を参照しているか(Grounding)」を確認します。単に検索するだけでなく、検索結果に基づいて回答しているか、検索結果にないことを勝手に捏造していないかを検証します。これを評価するために、Ragasなどの自動評価フレームワークが用いられます。
実務での課題と対策
「ゴミイン・ゴミアウト(Garbage In, Garbage Out)」の問題です。検索対象となる社内ドキュメントが古かったり、矛盾していたりすると、AIも当然間違った回答を出します。技術的なチューニングだけでなく、参照元のコンテントマネジメント(ナレッジベースの整備)が成功の鍵を握ります。
失敗例・トラブル事例
- 権限越えの検索: 給与データを検索対象に含めてしまい、一般社員が「社長の給料は?」と聞くと、RAGが正確な金額を回答してしまいました。ドキュメントごとのアクセス権限管理(ACL)をVector DB側でも適用する必要がありました。
- 古い情報の優先: マニュアルの第1版と第2版が両方検索対象になっており、AIが偶然ヒットした古い手順を回答してしまいました。バージョニング管理や、古いデータのアーカイブ運用が欠けていました。
関連リンク
関連キーワード
RAG
ベクトル検索
Embedding
ハルシネーション
グラウンディング
Vector DB