AIリテラシー 人間の監督
カテゴリ: 説明責任・透明性

人間の監督(Human Oversight)、いわゆる「Human-in-the-loop(HITL)」は、高リスクAIシステムを完全に自律させず、必ず人間が監視・介入できる体制を維持するという要件です。
監督者の役割
監督者には、単に画面を見ているだけでなく、以下のような権限と能力が求められます:
- AIの出力を批判的に評価し、間違いがあれば無視あるいは修正する権限。
- AIシステムが異常な動作をした場合に、即座に「キルスイッチ(停止ボタン)」を押してシステムを止める能力。
- 「自動化バイアス(機械の言うことを無批判に信じてしまう心理)」に陥らないための十分なトレーニング。
AI規制法は、AIをあくまで「人間を支援するツール」と位置付けており、最終的な責任と制御権は人間にあることを強調しています。