AIリテラシー 禁止されるAI

カテゴリ: リスク管理・評価
禁止されるAI

禁止されるAI(Unacceptable Risk AI)は、EUの価値観(人間の尊厳、自由、民主主義)と相容れない重大なリスクをもたらすとして、EU市場での開発、販売、使用が完全に禁止されるカテゴリーです。

禁止される具体的な慣行

  • サブリミナル操作・操作的技術:
    本人の意識に上らない手法や、認知・判断能力の弱みにつけ込んで、本人に害を及ぼすような行動をさせるAI。
  • 社会的スコアリング(Social Scoring):
    公的機関が個人の行動データや性格特性に基づいて社会的信用スコアを付け、それにより不当な不利益を与えること。
  • リアルタイム遠隔生体認証(公共空間):
    法執行目的で公共の場でリアルタイムに顔認証などを行うこと(テロ対策など厳格な例外を除く)。
  • 予測的ポリシング(Predictive Policing):
    個人の性格特性や過去の行動のみに基づいて、その人が犯罪を犯すリスクを評価すること。
  • 感情認識(職場・教育):
    職場や学校において、AIを使って人々の感情を推測すること(安全目的を除く)。
  • 無差別な顔画像スクレイピング:
    インターネットやCCTVから顔画像を無差別に収集してデータベースを構築すること(Clearview AIなどが想定)。

これらの禁止事項に違反した場合、最も重い制裁金(最大3,500万ユーロ/7%)が適用されます。