AIリテラシー DLP(データ損失防止)
カテゴリ: セキュリティ・プライバシー
DLP(Data Loss Prevention)とは
DLP(データ損失防止)は、組織内の機密データが、許可されていない第三者に送信されたり、外部へ持ち出されたりすることを防ぐセキュリティ技術です。AIエージェント、特に外部のパブリッククラウド型LLM(ChatGPT Enterprise APIなど)を使用する場合、社員が誤って顧客名簿やソースコードをプロンプトに入力してしまうリスクが常につきまといます。DLPはこれを「水際」で阻止する防波堤の役割を果たします。
従来のDLPはファイルサーバーなどを監視していましたが、AI時代のDLPは「APIリクエストの中身(ペイロード)」をリアルタイムでスキャンし、PII(個人識別情報)を検知すると `<masked>` のような文字列に置換したり、リクエスト自体をブロックしたりする機能が求められます。
監査におけるチェックポイント
情報セキュリティ監査において、私たちはAIエージェントに実装されたDLP機能の「精度」と「範囲」を検証します。
- 正規表現によるパターン検知: クレジットカード番号、電話番号、メールアドレスなどの定型フォーマットを確実に検知できるか。
- コンテキスト検知(NER): 「田中太郎」のような人名や、「株式会社〇〇」のような組織名を、文脈から判断して抽出・秘匿化できているか(Named Entity Recognitionの活用)。
- オプトアウト設定: 送信されたデータが、AIプロバイダー側で「再学習」に使用されない設定になっているか。
実務での課題と対策
DLPの導入でよくあるトラブルは「過剰検知(False Positive)」です。通常の業務に必要なデータまでブロックしてしまい、エージェントが役に立たなくなるケースです。対策として、一律にブロックするのではなく、ユーザーに「この情報には機密が含まれている可能性がありますが、送信しますか?」と警告ダイアログ(Warning)を表示し、同意を得た場合のみ送信する「ユーザー教育型」の実装も効果的です。
失敗例・トラブル事例
- Samsungのソースコード流出事件: エンジニアがデバッグのために社外秘のソースコードをAIチャットボットにそのまま貼り付け、学習データとして取り込まれてしまうリスクが発生しました。これを受けて多くの企業がDLPゲートウェイ(AI利用時のプロキシ)を導入し、コードブロックの送信を制限するようになりました。
- 医療データの不十分な匿名化: 患者の名前は伏せていたものの、「具体的な症状、年齢、居住地」の組み合わせ(Quasi-Identifier)から個人が特定されてしまいました。k-匿名性などのプライバシー指標を考慮した高度なDLPが必要でした。
関連リンク
関連キーワード
DLP
PII
マスキング
固有表現抽出(NER)
情報漏洩
Privacy by Design