AIリテラシー RAGアーキテクチャ

カテゴリ: 開発手法・運用

RAG (Retrieval-Augmented Generation) とは

RAG(検索拡張生成)は、LLMが持つ「滑らかな文章作成能力」と、外部データベースが持つ「正確で最新の知識」を組み合わせる技術アーキテクチャです。LLM自体は過去の学習データしか持っていませんが、RAGを使うことで、例えば「昨日の社内会議の議事録」や「今朝発表されたニュース」を即座に参照し、それを踏まえた回答を生成することが可能になります。

技術的には、ドキュメントを意味ベクトル(Embedding)に変換してVector DBに格納し、ユーザーの質問に近いベクトルを持つチャンク(文章の断片)を検索(Retrieve)し、その内容をプロンプトに含めてLLMに生成(Generate)させます。

監査における評価:グラウンディング精度

監査においては、RAGが「正しく情報を参照しているか(Grounding)」を確認します。単に検索するだけでなく、検索結果に基づいて回答しているか、検索結果にないことを勝手に捏造していないかを検証します。これを評価するために、Ragasなどの自動評価フレームワークが用いられます。

実務での課題と対策

「ゴミイン・ゴミアウト(Garbage In, Garbage Out)」の問題です。検索対象となる社内ドキュメントが古かったり、矛盾していたりすると、AIも当然間違った回答を出します。技術的なチューニングだけでなく、参照元のコンテントマネジメント(ナレッジベースの整備)が成功の鍵を握ります。

[PR] 【固定IPが月額490円から】ロリポップ!固定IPアクセス

失敗例・トラブル事例

  • 権限越えの検索: 給与データを検索対象に含めてしまい、一般社員が「社長の給料は?」と聞くと、RAGが正確な金額を回答してしまいました。ドキュメントごとのアクセス権限管理(ACL)をVector DB側でも適用する必要がありました。
  • 古い情報の優先: マニュアルの第1版と第2版が両方検索対象になっており、AIが偶然ヒットした古い手順を回答してしまいました。バージョニング管理や、古いデータのアーカイブ運用が欠けていました。

関連リンク

関連キーワード

RAG ベクトル検索 Embedding ハルシネーション グラウンディング Vector DB