1. はじめに
日本のAIガバナンスは、「ハードローによる事前規制」ではなく「ソフトローを中心としたアジャイル・ガバナンス」を基本方針として展開されてきた。この方針は、急速に進化するAI技術に対して過度に硬直的な規制が技術革新を阻害するリスクを回避しつつ、社会的な信頼確保とリスク管理を両立させることを目指すものである。
本稿では、日本のAI政策の歴史的展開を概観し、主要なガイドラインの内容と構造を分析するとともに、既存法制のAIへの適用状況、および今後の法的枠組みの展望について、学術的観点から包括的に論じる。特に、EU AI Actをはじめとする国際的な規制動向との比較において、日本アプローチの特徴と課題を明らかにすることを目的とする。
2. AI政策の歴史的展開
日本のAI政策は、2016年の「人工知能技術戦略会議」の設置を起点として、段階的に体系化されてきた。同会議は、総務省、文部科学省、経済産業省の3省が共同で設置し、AI研究開発の推進と社会実装の基盤整備を目的とした。
2017年3月、総務省は「国際的な議論のためのAI開発ガイドライン案」を公表し、透明性、利用者支援、制御可能性、セキュリティ、安全性、プライバシー、倫理、アカウンタビリティ、利用者支援の9原則を提示した。この文書は、OECDのAI原則策定にも影響を与えたとされる。
2019年3月、内閣府の「人間中心のAI社会原則」が策定された。本原則は、人間中心、教育・リテラシー、プライバシー確保、セキュリティ確保、公正競争確保、公平性・説明責任・透明性、イノベーションの7つの基本原則を定め、日本のAIガバナンスの規範的基盤を形成している。
2022年1月、経済産業省は「AI原則の実践の在り方に関する検討会」(AIガバナンス・ガイドライン WG)の成果として「AI原則実践のためのガバナンス・ガイドライン ver.1.1」を公表した。このガイドラインは、企業がAI原則を実践するための具体的な行動指針とガバナンス体制の構築方法を提示した。
3. AI事業者ガイドライン(2024年)
2024年4月、総務省と経済産業省は、従来の複数のガイドラインを統合した「AI事業者ガイドライン(第1.0版)」を公表した。本ガイドラインは、AI開発者、AI提供者、AI利用者の3つの主体を対象とし、各主体が遵守すべき10の基本原則と具体的な実践項目を定めている。
AI事業者ガイドラインの構造
AI事業者ガイドラインの特徴は以下の点にある。第一に、バリューチェーン全体を対象とする包括性。AI開発者のみならず、提供者と利用者を含む三者の責任を明確化している。第二に、リスクベースアプローチの採用。AI システムのリスクレベルに応じた対応の段階化を推奨し、EU AI Actのリスク分類体系との親和性を示している。第三に、ソフトロー型のアプローチ。法的拘束力を持たないガイドラインとして、企業の自主的取組みを促進する形式を採用している。
本ガイドラインは、「高度なAIシステム」に関する追加的な留意事項を設けており、生成AIを含む高度なAIシステムの開発・提供・利用に際しての特別な配慮を求めている。これは、G7広島AIプロセスで合意された「高度なAIシステムを開発する組織向けの国際指針」との整合性を確保するものである。
4. 既存法制のAIへの適用
日本には、AIを包括的に規制する単独の法律は存在しないが、既存の法制がAIの開発・利用の各側面に適用される。以下では、主要な法分野におけるAI関連の法的論点を概観する。
4.1 個人情報保護法
個人情報保護法(2003年制定、2022年改正施行)は、AIシステムによる個人データの処理に対する最も重要な法的枠組みである。AIシステムの訓練データに個人情報が含まれる場合、利用目的の特定・通知(第17条、第21条)、安全管理措置(第23条)、第三者提供の制限(第27条)等の義務が適用される。2022年改正では、個人関連情報の第三者提供規制(第31条)が導入され、Cookie等のオンライン識別子を用いたプロファイリングに対する規制が強化された。
特に、AIによる自動的な個人に関する判断(プロファイリング)については、GDPRのような「自動化された個人に関する決定に対する権利」(GDPR第22条)に相当する明示的な規定は存在しないが、個人情報保護委員会の解釈指針において、プロファイリングに関する留意事項が示されている。
4.2 不正競争防止法と営業秘密
AIモデルの訓練に使用される企業のデータセットやアルゴリズムは、不正競争防止法の営業秘密(第2条第6項)または限定提供データ(第2条第7項)として保護されうる。2018年改正で導入された限定提供データ制度は、AIビジネスにおけるデータの流通と保護のバランスを図る重要な法的基盤を提供している。
4.3 製造物責任法(PL法)
AI搭載製品の欠陥により損害が生じた場合の製造物責任の適用は、重要な法的論点である。現行のPL法は「製造物」を「製造又は加工された動産」と定義しており(第2条第1項)、ソフトウェア単体は「動産」に該当しないため、AIソフトウェア自体はPL法の直接的な適用対象とならない。ただし、AI搭載製品(自動運転車、医療機器等)の物理的な製品としての側面は、PL法の規律に服する。
4.4 著作権法
著作権法第30条の4は、「著作物に表現された思想又は感情の享受を目的としない利用」について、著作権者の許諾なく著作物を利用できることを規定しており、AIの機械学習のための著作物利用がこの規定によって広範に許容されると解されている。この規定は、EU著作権指令のテキスト・データ・マイニング(TDM)例外規定と比較して、より広範な柔軟性を有すると評価されている。ただし、生成AIの出力物の著作権保護、および著作権法第30条の4の「ただし書」(著作権者の利益を不当に害する場合の除外)の解釈については、現在も活発な議論が続いている。
5. セクター別規制とAI
日本の規制体系においては、AIの利用に関する具体的な規律は、各セクターの既存法制の枠内で展開される傾向にある。
金融分野:金融庁は、「AIに関する原則」を含む「金融分野におけるAI利活用についての検討」を実施し、金融機関のAI利活用に関する監督上の着眼点を整理している。銀行法、金融商品取引法、保険業法等の既存法制の下で、AIを活用した自動審査、アルゴリズム取引、保険引受等に対する規制が適用される。
医療分野:AI搭載の医療機器は、薬機法(医薬品医療機器等法)に基づく審査・承認の対象となる。2020年に改正された薬機法では、AI医療機器の特性を考慮した審査プロセスの整備が進められ、「変化するプログラム医療機器」(continuously learning AI)の承認枠組みが検討されている。
自動運転分野:2023年4月施行の改正道路交通法により、レベル4自動運転(特定条件下における完全自動運転)の公道走行が法的に可能となった。自動運転に伴う事故の責任帰属については、自動車損害賠償保障法の適用関係が整理されつつある。
6. アジャイル・ガバナンスの理念と実践
日本のAIガバナンスを特徴づける「アジャイル・ガバナンス」の概念は、経済産業省の「GOVERNANCE INNOVATION: Society 5.0の実現に向けた法とアーキテクチャのリ・デザイン」(2020年)で体系化された。この概念は、急速な技術変化に対応するため、規制の設計・実施・評価・改善を反復的に行うガバナンスモデルを提唱するものである。
アジャイル・ガバナンスのサイクル
アジャイル・ガバナンスの特徴は、以下の4つの要素に集約される。第一に、マルチステークホルダー参加型のガバナンス。政府、企業、学術界、市民社会の多様な主体が規制の設計と運用に関与する。第二に、テクノロジー中立的なアプローチ。特定の技術を名指しで規制するのではなく、リスクと影響に基づく規制設計を採用する。第三に、反復的な見直しメカニズム。技術と社会の変化に応じて、規制内容を機動的に更新する。第四に、自主規制とハードローの組み合わせ。業界自主基準と法的規制を適切に組み合わせる共同規制(co-regulation)の活用。
7. G7広島AIプロセスと日本の国際的役割
2023年5月のG7広島サミットにおいて、日本の議長国としてのイニシアティブにより「広島AIプロセス」が立ち上げられた。このプロセスは、生成AIを含む高度なAIシステムのガバナンスに関する国際的な議論の枠組みを提供するものである。
2023年12月に合意された「広島AIプロセス包括的政策枠組み」は、(1)高度なAIシステムを開発する組織向けの国際指針、(2)高度なAIシステムを開発する組織向けの国際行動規範、(3)すべてのAI関係者向けの報告枠組み、から構成される。これらの文書は、法的拘束力を持たない「ソフトロー」として、参加国の自主的な実施に委ねられるが、グローバルなAIガバナンスの規範形成において重要な参照点となっている。
日本が広島AIプロセスにおいて果たした役割は、「包括的で持続可能なAIガバナンス」の理念の提唱にある。特に、イノベーション促進と規制のバランス、多様な規制アプローチの相互運用性(interoperability)の確保、そしてグローバル・サウスを含む包括的な参加の促進が、日本の貢献の特徴として挙げられる。
8. AIセーフティ・インスティテュート(AISI)
2024年2月、日本政府は独立行政法人情報処理推進機構(IPA)内に「AIセーフティ・インスティテュート」(AISI)を設立した。AISIは、AIの安全性に関する評価手法の開発、AIモデルの安全性評価の実施、国内外の関係機関との連携、および安全性に関する情報の収集・分析・発信を主要な任務としている。
AISIの設立は、英国AI Safety Institute(2023年設立)および米国AI Safety Institute(NIST内、2024年設立)に続くものであり、AIの安全性評価に関する国際的な連携体制の構築において重要な一歩である。AISIは、広島AIプロセスの成果を実装する機関として位置づけられており、特に高度なAIモデルの安全性評価手法の標準化に貢献することが期待されている。
9. 課題と今後の展望
日本のAIガバナンスは、いくつかの構造的課題に直面している。
ソフトローの限界:ガイドラインベースのアプローチは、遵守の強制力を欠くため、実効性の確保が課題となる。EU AI Actのような法的拘束力のある規制との相互運用性を確保しつつ、ソフトローの柔軟性を維持するバランスの追求が求められる。日本においても、AI基本法やAI利用促進法のような法制化の議論が進展しており、今後の動向が注目される。
執行体制の整備:AIガバナンスに関する監督・執行体制は、各省庁のセクター別規制に分散しており、AI固有の課題に対する統一的な監督体制が不足している。AISIの設立はこの課題に部分的に対応するものであるが、規制執行権限を有する統合的な監督機関の設置については、引き続き検討が必要である。
国際的な相互運用性:EU AI Actの域外適用を含む国際的な規制の相互運用性の確保は、日本企業のグローバルな事業展開にとって重要な課題である。相互承認協定(MRA)や適合性評価の相互認証の枠組みの構築が求められる。
生成AIへの対応:大規模言語モデルをはじめとする生成AIの急速な普及は、既存のガイドラインの想定を超える新たなリスクを提示している。偽情報の生成、著作権侵害、プライバシーリスク、および民主的プロセスへの影響に対する対応の強化が急務である。
10. 結語
日本のAIガバナンスは、ソフトローを基盤としたアジャイルなアプローチを採用し、国際的な規範形成においても独自の貢献を行ってきた。しかし、AI技術の急速な進化と国際的な規制環境の変動の中で、このアプローチの持続可能性と実効性を不断に検証し、必要に応じて法的枠組みの強化を図ることが不可欠である。上級技術者および研究者は、技術開発の最前線に立つ者として、AIガバナンスの議論に能動的に参画し、技術的知見に基づく規範形成に貢献することが期待される。
参考文献
- 総務省・経済産業省. (2024). AI事業者ガイドライン(第1.0版).
- 内閣府. (2019). 人間中心のAI社会原則.
- 経済産業省. (2022). AI原則実践のためのガバナンス・ガイドライン ver.1.1.
- 経済産業省. (2020). GOVERNANCE INNOVATION: Society 5.0の実現に向けた法とアーキテクチャのリ・デザイン.
- G7. (2023). Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI Systems.
- 情報処理推進機構(IPA). (2024). AIセーフティ・インスティテュート設立について.
- 個人情報保護委員会. (2023). 生成AIサービスの利用に関する注意喚起.
- 文化審議会著作権分科会. (2024). AIと著作権に関する考え方について.
- OECD. (2024). OECD AI Principles.
- 総務省. (2017). 国際的な議論のためのAI開発ガイドライン案.