AIリテラシー アルゴリズムバイアス
カテゴリ: バイアス・公平性

アルゴリズムバイアス(Algorithmic Bias)とは、AIシステムの設計上の問題や学習データの偏りにより、公平性を欠く差別的な結果が出力される現象です。これは意図的な差別ではなく、過去の社会的差別を反映したデータによって「悪意なく」学習されてしまうことが多いため、発見が困難です。
代表的な事例
- 採用AI:過去の採用データに男性が多かったため、女性の履歴書を不当に低く評価してしまう。
- 顔認証:白人男性のデータで多く学習されたため、有色人種や女性に対する認識精度が著しく低下する。
- 医療AI:特定の保険制度加入者のデータに偏り、貧困層の重症度を過小評価する。
AI規制法は、こうしたバイアスを「技術的なエラー」ではなく「基本的人権への侵害リスク」として扱い、厳格な管理を求めています。