序論:AIの法的地位と責任の空白

AIシステムが自律的に意思決定を行い、その結果として損害が発生した場合、法的責任は誰に帰属するのか。この問いは、自動運転車の事故、医療AI の誤診断、採用AIの差別的判断など、具体的な事例において急速に現実化している。

従来の法体系は、人間(自然人)と法人を法的主体(legal person)として想定しており、AIシステムそのものに法的人格(legal personality)を付与する制度は、現時点ではいかなる法域にも存在しない。2017年にEU議会が「電子人格(electronic personhood)」の概念を検討したことがあるが、多くの法学者の批判を受け、AI規則の最終版には含まれなかった。

本稿では、AIに関連する法的責任の問題を、(1) 製造物責任(product liability)、(2) 過失責任(negligence liability)、(3) EU AI責任指令の枠組み、(4) 日本法における法的構成、(5) 保険制度と賠償メカニズム、の観点から体系的に分析する。

製造物責任とAI

製造物責任(product liability)は、製品の欠陥(defect)に起因する損害について、製造者に無過失責任(strict liability)を課す法理である。米国ではRestatement (Third) of Torts: Products Liability(1998年)、EUでは製造物責任指令(85/374/EEC)、日本では製造物責任法(PL法, 1994年)が基本的な法的枠組みを提供する。

AIシステムへの製造物責任の適用には、いくつかの根本的な課題がある。第一に、「製造物(product)」の定義の問題がある。多くの法域において、製造物責任は有体物(tangible goods)を対象としており、ソフトウェアが「製造物」に該当するかは議論がある。EUの新製造物責任指令(2024年採択)は、ソフトウェアとデジタルサービスを明示的に製造物責任の対象に含める改正を行い、この問題に対処した。

第二に、「欠陥(defect)」の定義の問題がある。製造物責任法における欠陥は、設計上の欠陥(design defect)、製造上の欠陥(manufacturing defect)、指示・警告上の欠陥(warning defect)に分類される。機械学習モデルの「欠陥」をこれらの分類にどのように位置づけるかは、法的に未確定である。訓練データのバイアスに起因するAIの差別的出力は「設計上の欠陥」か、あるいは「予見可能なリスクに対する警告の不備」か。

第三に、AIの「自律的学習」がもたらす時間的変化の問題がある。配備後に環境との相互作用を通じて学習するAIシステム(例:強化学習ベースの推薦システム)の場合、出荷時に存在しなかった「欠陥」が運用中に発生する可能性がある。この場合、製造物責任の適用時点と欠陥の認定が複雑になる。

過失責任とAI

過失責任(negligence liability)は、(1) 注意義務(duty of care)の存在、(2) 注意義務の違反(breach)、(3) 因果関係(causation)、(4) 損害(damage)の四要件を充足する場合に成立する。AIに関連する過失責任は、AI開発者、AI提供者(deployer)、AI利用者、データ提供者のそれぞれについて検討される。

AI開発者の注意義務の範囲は、専門家の注意義務(professional standard of care)として画定される。医療AIの文脈では、AI開発者は医療機器製造者としての注意義務を負い、FDA(米国食品医薬品局)の承認プロセスにおける安全性・有効性の立証義務がこれに相当する。

AI利用者(deployer)の注意義務は、AIの限界を理解し、適切な監視を行い、AIの出力を盲目的に信頼しないことを含む。医師がAI診断支援システムを使用する場合、AIの推奨に従うことで患者に損害が生じた場合、医師は自らの専門的判断を放棄したとして過失を問われる可能性がある。

因果関係の立証は、AIの「ブラックボックス」性質によって困難になる。AIシステムの意思決定過程が不透明な場合、特定の入力(例:患者の症状データ)と出力(例:誤診)の間の因果関係を法的に立証することは、被害者にとって著しく困難である。この情報の非対称性は、立証責任の転換(burden of proof shifting)の正当性を支持する論拠となる。

図1:AI損害における責任の帰属構造

損害発生 AI開発者 設計・訓練の欠陥 データ提供者 訓練データの品質 AI提供者 配備・統合・監視 利用者 適切な使用・監視 主要な法的課題 因果関係の立証困難 責任配分の不明確さ 情報の非対称性 「欠陥」の定義 自律学習による変化 立証責任の配分

EU AI責任指令

欧州委員会は2022年、AI責任指令案(AI Liability Directive, AILD)を提案した。AILDは、既存のEU不法行為法を補完し、AI関連の損害に対する民事責任の枠組みを整備することを目的とする。AILDの主要な特徴は以下の通りである。

第一に、因果関係の推定(presumption of causality):高リスクAIシステムについて、(a) 被告がAI規則の義務に違反したこと、(b) AIの出力が損害に関連すると合理的に考えられること、が立証された場合、因果関係が推定される。この推定により、被害者の立証負担が大幅に軽減される。

第二に、証拠開示請求権(right of access to evidence):被害者は、裁判所を通じてAIシステムに関する関連証拠の開示を請求する権利を有する。これは、AIの不透明性に起因する情報の非対称性に対処するための措置である。

第三に、過失の推定(presumption of fault):特定の条件下において、被告の過失が推定される。ただし、AILDは無過失責任を採用しておらず、過失責任の枠組みを維持しつつ、立証責任を転換するアプローチを採る。

新製造物責任指令(2024年採択)との関係では、AI生成物が「製造物」に含まれることが明確化され、AIの欠陥に起因する損害については製造物責任と過失責任の双方が適用されうる。

日本法におけるAI責任

日本法におけるAI関連の法的責任は、主として以下の法的構成によって処理される。

製造物責任法(PL法):AI組込製品(自動運転車、医療機器等)については、PL法の適用が検討される。ただし、PL法は「製造物」を「製造又は加工された動産」と定義しており(第2条第1項)、ソフトウェア単体がこれに該当するかは争いがある。AI組込ハードウェアについては、全体として「製造物」に該当すると解される。

民法709条(不法行為):「故意又は過失によって他人の権利又は法律上保護される利益を侵害した者は、これによって生じた損害を賠償する責任を負う」。AI開発者・利用者の過失認定においては、「AI技術の現在の水準(state of the art)」に照らした注意義務の範囲が問題となる。

民法715条(使用者責任):AIシステムを業務で使用する企業(使用者)は、AIの「行為」による損害について使用者責任を負う可能性がある。ただし、AIが「被用者」に該当するかは法解釈上の問題であり、むしろAIを「道具」と捉え、道具の使用に伴う注意義務違反として構成する方が妥当であるとの見解が有力である。

経済産業省の「AI・データの利用に関する契約ガイドライン」(2018年、2022年改訂)は、AI開発・利用における当事者間の責任配分についてのソフトローとして機能している。

AI保険と賠償メカニズム

AIに関連するリスクの増大は、新たな保険商品とリスク分散メカニズムの開発を促している。自動運転車保険は、この分野の最も進展した領域であり、英国のAutomated and Electric Vehicles Act(2018年)は、自動運転モードで生じた事故について、保険者(insurer)が第一次的な賠償責任を負う制度を導入した。

AI賠償基金(compensation fund)の構想——AI開発者からの拠出金によって設立される共同基金から被害者を補償する制度——は、原子力損害賠償制度からの類推として議論されている。EUのAI責任指令の議論過程でも検討されたが、最終的には採用されなかった。

図2:AI損害に対する法的救済の選択肢

AI損害発生 損害の種類と法的構成の選択 製造物責任 無過失責任(欠陥の立証) AI組込製品に適用 不法行為(過失責任) 注意義務違反の立証 開発者・利用者に適用 契約責任 債務不履行の立証 SLA違反等に適用 補完的メカニズム AI保険制度 賠償基金 ADR(裁判外紛争解決)

結論:適応的法制度の構築に向けて

AI意思決定の法的責任と賠償制度は、技術の急速な進展に法制度が追いつくことの困難さを象徴する課題である。現行の法体系——製造物責任、過失責任、契約責任——は、AIの特性(不透明性、自律性、学習能力)に十分に対応できていない。

法制度の改革の方向性として、(1) 立証責任の転換——AIの不透明性に起因する情報の非対称性を是正するため、開発者・提供者側に立証責任を課す、(2) ソフトウェアの「製造物」としての包摂——EUの新製造物責任指令が先行、(3) 強制保険制度——自動運転車保険の先例を他のAI応用分野に拡大、(4) 説明義務との連携——XAIの進展と法的救済を接合、が重要であると考えられる。

参考文献

  1. Chagal-Feferkorn, K. (2019). "Am I an Algorithm's Keeper? The Challenge of AI-Caused Harm." Stanford Technology Law Review, 22, 297–357.
  2. European Commission (2022). Proposal for a Directive on Adapting Non-Contractual Civil Liability Rules to Artificial Intelligence (AI Liability Directive).
  3. European Parliament (2024). Revised Product Liability Directive.
  4. Geistfeld, M.A. (2017). "A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation." California Law Review, 105(6), 1611–1694.
  5. Matthias, A. (2004). "The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata." Ethics and Information Technology, 6, 175–183.
  6. UK Government (2018). Automated and Electric Vehicles Act 2018.
  7. 経済産業省 (2022). 「AI・データの利用に関する契約ガイドライン(改訂版)」.
  8. 総務省 (2020). 「AIネットワーク社会推進会議 報告書」.