AIリテラシー 禁止されるAI
カテゴリ: リスク管理・評価

禁止されるAI(Unacceptable Risk AI)は、EUの価値観(人間の尊厳、自由、民主主義)と相容れない重大なリスクをもたらすとして、EU市場での開発、販売、使用が完全に禁止されるカテゴリーです。
禁止される具体的な慣行
- サブリミナル操作・操作的技術:
本人の意識に上らない手法や、認知・判断能力の弱みにつけ込んで、本人に害を及ぼすような行動をさせるAI。 - 社会的スコアリング(Social Scoring):
公的機関が個人の行動データや性格特性に基づいて社会的信用スコアを付け、それにより不当な不利益を与えること。 - リアルタイム遠隔生体認証(公共空間):
法執行目的で公共の場でリアルタイムに顔認証などを行うこと(テロ対策など厳格な例外を除く)。 - 予測的ポリシング(Predictive Policing):
個人の性格特性や過去の行動のみに基づいて、その人が犯罪を犯すリスクを評価すること。 - 感情認識(職場・教育):
職場や学校において、AIを使って人々の感情を推測すること(安全目的を除く)。 - 無差別な顔画像スクレイピング:
インターネットやCCTVから顔画像を無差別に収集してデータベースを構築すること(Clearview AIなどが想定)。
これらの禁止事項に違反した場合、最も重い制裁金(最大3,500万ユーロ/7%)が適用されます。