AIリテラシー データ保護
カテゴリ: データ管理・プライバシー

データ保護(Data Protection)は、AIシステムで使用されるデータを、侵害、改ざん、漏洩から守るためのセキュリティ措置全般を指します。
AI特有のセキュリティ課題
一般的なITセキュリティに加えて、AIモデル特有の攻撃手法への対策が必要です:
- データ汚染(Data Poisoning):学習データに悪意あるデータを混入させ、誤った判断をするようにモデルを操作する攻撃。
- モデル反転攻撃(Model Inversion):AIの出力結果から、学習に使われた元の個人データを復元しようとする攻撃。
EU AI規制法は、高リスクAIに対してサイバーセキュリティの確保を求めており、これらの高度な攻撃に対する耐性を持つ設計(Security by Design)が求められます。