序論:なぜAI倫理に哲学が必要か

人工知能(Artificial Intelligence, AI)技術の急速な発展は、人類社会に未曾有の変革をもたらしつつある。自動運転車の事故時における責任帰属の問題、採用アルゴリズムにおける差別的判断、医療診断AIの誤判定による患者への影響——これらの具体的課題に対処するためには、技術的解決策のみならず、その根底にある倫理的・哲学的基盤の理解が不可欠である。

AI倫理学(AI Ethics)は、単なる応用倫理の一分野にとどまらず、道徳哲学の根本的問いを再燃させる知的領域として注目を集めている。すなわち、「善とは何か」「正しい行為とは何か」「誰が責任を負うべきか」という古典的な哲学的問いが、AIという新たな技術的文脈において、従来とは異なる次元で問い直されているのである。

本稿では、西洋倫理学の主要な理論体系——功利主義、義務論、徳倫理学——を概観した上で、これらがAI倫理の文脈においてどのように適用され、またどのような限界を持つかを体系的に考察する。さらに、ロールズの正義論、ケア倫理学、そして非西洋的倫理観のAIへの応用可能性についても検討し、多元的な倫理的枠組みの必要性を論じる。

功利主義とAI:最大多数の最大幸福の再考

功利主義(Utilitarianism)は、Jeremy Bentham(1748–1832)とJohn Stuart Mill(1806–1873)によって体系化された倫理理論であり、行為の道徳的正しさを、その結果がもたらす幸福(utility)の総量によって判断する。功利主義の基本原理は「最大多数の最大幸福(the greatest happiness of the greatest number)」として知られ、行為の帰結に基づいて道徳的判断を行う帰結主義(consequentialism)の代表的立場である。

AI倫理における功利主義的アプローチは、一見すると計算的合理性と親和性が高い。AIシステムは、定量化された目的関数(objective function)を最適化するよう設計されるため、「幸福の総量を最大化する」という功利主義の要請は、最適化アルゴリズムの設計原理と構造的に類似している。例えば、自動運転車のトロリー問題(trolley problem)において、乗客1名の犠牲で歩行者5名を救う判断は、功利主義的計算に基づけば合理的とされる。

しかしながら、功利主義のAI応用には深刻な理論的困難が存在する。第一に、効用(utility)の測定問題がある。Benthamの快楽計算(felicific calculus)は、快楽と苦痛を7つの次元(強度、持続性、確実性、近接性、多産性、純粋性、範囲)で定量化しようとしたが、異なる個人間の効用比較(interpersonal comparison of utility)は、現代の厚生経済学においても未解決の問題である。AIシステムが「幸福の総量」を計算するためには、この基本的な測定問題を解決しなければならない。

第二に、少数者の権利侵害の問題がある。功利主義は、総効用の最大化を追求するあまり、少数者の基本的権利を犠牲にする可能性を内包している。AIによる予測的ポリシング(predictive policing)において、特定のコミュニティに対する過剰な監視が「犯罪の総量の減少」という功利主義的目標のもとで正当化される危険性は、この問題の具体的な発現である。Mill自身が後期の著作において「質的快楽主義(qualitative hedonism)」を導入し、快楽の質的差異を認めたのは、まさにこうした批判に対する応答であった。

第三の問題として、帰結の予測可能性の限界がある。功利主義は行為の帰結に基づく判断を要求するが、複雑な社会システムにおいてAIの行為がもたらす長期的帰結を正確に予測することは原理的に困難である。Peter Railton(1984)が提唱した「洗練された功利主義(sophisticated consequentialism)」は、行為者が常に帰結を計算する必要はなく、長期的に良い結果をもたらすルールや性向を採用すべきだと主張するが、これはむしろルール功利主義(rule utilitarianism)への接近であり、行為功利主義の本来の強みを失わせる可能性がある。

図1:倫理理論の構造比較

功利主義 Utilitarianism 判断基準:帰結 目標:幸福の最大化 代表:Bentham, Mill AI応用:最適化関数 強み:定量的評価 弱み:少数者の権利 弱み:効用の測定困難 義務論 Deontology 判断基準:義務・規則 目標:道徳法則の遵守 代表:Kant AI応用:ルールベース制約 強み:権利の保護 弱み:義務の衝突 弱み:柔軟性の欠如 徳倫理学 Virtue Ethics 判断基準:行為者の徳 目標:エウダイモニア 代表:Aristotle AI応用:設計者の責任 強み:文脈的判断 弱み:定式化の困難 弱み:文化依存性

義務論とAI:カント倫理学の現代的展開

義務論(Deontology)は、Immanuel Kant(1724–1804)の道徳哲学に代表される倫理理論であり、行為の道徳的正しさをその帰結ではなく、行為自体の性質や行為者の意図によって判断する。カントの定言命法(kategorischer Imperativ)は、「あなたの格率が同時に普遍的法則となることを欲しうるような格率に従ってのみ行為せよ」と命じ、道徳的行為の普遍化可能性を要求する。

AI倫理における義務論的アプローチは、AIシステムに対して絶対的な道徳的制約(moral constraints)を課すことを主張する。具体的には、AIは決して人間を単なる手段として扱ってはならず(カントの「人間性の定式」)、個人のプライバシーや自律性(autonomy)を侵害するような行為は、たとえ全体的な帰結が良好であっても許容されない。この立場は、データ保護規則(GDPR)における「忘れられる権利(right to be forgotten)」やAIによる自動的意思決定に対する「異議申立権(right to object)」の哲学的基盤として理解できる。

カントの第二定式——「あなた自身の人格においても他のすべての人の人格においても、人間性を決して単に手段としてのみ扱わず、常に同時に目的として扱うよう行為せよ」——は、AI倫理において特に重要な含意を持つ。AIによるプロファイリングやスコアリングが、個人を単なるデータポイントとして還元し、その人格的尊厳を無視する場合、これはカント倫理学の観点から根本的に不正義である。

しかし、義務論のAI応用にも重大な課題が存在する。第一に、義務の衝突(conflict of duties)の問題がある。自動運転車が避けられない事故に直面した場合、「乗客を保護する義務」と「歩行者を保護する義務」が衝突する。カント倫理学は、このような義務間の優先順位付けについて明確な指針を提供しない。W.D. Ross(1930)が提唱した「一応の義務(prima facie duties)」の概念は、義務間の衝突を認めつつ、具体的状況における判断を許容するが、これは厳格な義務論からの逸脱であり、カント自身が受容するかどうかは疑わしい。

第二に、AIシステムに「道徳的行為者性(moral agency)」を帰属させることの哲学的妥当性が問われる。カント倫理学において、道徳的行為は自律的な理性的存在者による自由な意志決定を前提とする。現行のAIシステムは、いかに高度な判断を行おうとも、カント的な意味での「自律性」を持たない。したがって、AIシステムに道徳的責任を帰属させることは、厳密なカント倫理学の枠組みでは原理的に困難である。この問題は、AIの法的責任論(legal liability)にも直結する重要な論点であり、後続の議論で詳述する。

Christine Korsgaard(1996)の構成主義的カント解釈は、道徳的義務を理性的存在者による自己立法として捉え、道徳の基盤を純粋理性から実践的アイデンティティへと移行させた。この解釈に基づけば、AI倫理の課題は「AIに道徳的義務を課すこと」ではなく、「AI開発者が自らの実践的アイデンティティとして道徳的責任を引き受けること」として再定式化される。

徳倫理学とAI:アリストテレスからの示唆

徳倫理学(Virtue Ethics)は、Aristotle(前384–前322)の『ニコマコス倫理学』に起源を持ち、20世紀後半にG.E.M. Anscombe(1958)、Alasdair MacIntyre(1981)、Philippa Foot(1978)らによって復興された倫理理論である。功利主義が「何をすべきか(what should I do?)」、義務論が「何が正しいか(what is right?)」を問うのに対し、徳倫理学は「どのような人間であるべきか(what kind of person should I be?)」を中心的な問いとする。

アリストテレスにおいて、徳(aretē)とは、人間の機能(ergon)を卓越的に発揮するための安定した性格的傾向(hexis)であり、実践的知恵(phronēsis)による中庸(mesotēs)の追求を通じて涵養される。エウダイモニア(eudaimonia)——人間的繁栄ないし良き生——は、徳に基づく活動を通じてのみ実現される。

AI倫理における徳倫理学的アプローチは、Shannon Vallor(2016)の『Technology and the Virtues』において体系的に展開されている。Vallorは、「技術的徳(technomoral virtues)」という概念を提唱し、AI時代において必要とされる徳目として、正直さ(honesty)、自制(self-control)、謙虚さ(humility)、正義(justice)、勇気(courage)、共感(empathy)、ケア(care)、礼節(civility)、柔軟性(flexibility)、遠慮深さ(perspective)、寛大さ(magnanimity)、そして実践的知恵(practical wisdom)を挙げている。

徳倫理学のAI応用における独自の貢献は、AI開発のプロセス自体を倫理的省察の対象とする点にある。功利主義や義務論が主としてAIの出力(output)の道徳的評価に焦点を当てるのに対し、徳倫理学はAI開発者、利用者、そして影響を受ける人々の性格形成と共同体的実践に注意を向ける。Mark Coeckelbergh(2012)は、AI倫理を「関係的倫理(relational ethics)」として捉え直し、人間とAIの相互作用が人間の徳の形成にどのような影響を与えるかを考察している。

しかし、徳倫理学には固有の課題もある。第一に、徳の内容の文化依存性の問題がある。何が徳とされるかは文化や歴史的文脈によって異なり、グローバルなAIシステムに統一的な徳の基準を適用することは容易ではない。第二に、徳倫理学は具体的な行為指針の提供において功利主義や義務論に劣るとの批判がある。AI開発者に「実践的知恵を持て」と要請することは、具体的な設計原理やアルゴリズムの制約条件に翻訳することが困難であり、実装可能性(implementability)の観点から限界がある。

ロールズ正義論のAI応用:公正としての正義

John Rawls(1921–2002)の『正義論(A Theory of Justice)』(1971)は、20世紀の政治哲学における最も影響力のある著作の一つであり、AI倫理の文脈においても重要な理論的資源を提供する。ロールズの「公正としての正義(justice as fairness)」は、社会の基本構造(basic structure)を規制する正義の原理を、合理的行為者による仮想的な社会契約から導出しようとする。

ロールズの方法論の核心は、「原初状態(original position)」と「無知のヴェール(veil of ignorance)」の思考実験にある。原初状態において、合理的行為者は自身の社会的地位、能力、価値観、世代的位置などを知らない「無知のヴェール」の背後に置かれ、この条件下で社会の基本原理を選択する。ロールズは、この状況下で合理的行為者が選択する原理として、以下の二つを提示する:

第一原理(平等な基本的自由の原理):各人は、すべての人の同様な自由の体系と両立しうる平等な基本的自由の最も広範な体系に対する平等な権利を持つべきである。第二原理:社会的・経済的不平等は、(a) 最も不利な立場にある人々の最大の利益となる場合(格差原理)、かつ(b) 公正な機会均等の条件のもとですべての人に開かれている職務と地位に付随する場合にのみ許容される。

AI倫理へのロールズ的アプローチの適用は、近年活発に議論されている。Reuben Binns(2018)は、アルゴリズム的公正性(algorithmic fairness)の基準をロールズの正義論から導出する試みを展開している。Binnsは、「無知のヴェール」の概念をアルゴリズム設計に応用し、設計者が自身がどの人口統計学的グループに属するかを知らない状態でアルゴリズムの公正性基準を選択すべきだと主張する。

格差原理のAI応用は特に示唆に富む。AIシステムの導入によって社会全体の効率が向上したとしても、それが「最も不利な立場にある人々」の状況を悪化させるならば、ロールズ的正義の観点からは不正義である。例えば、AIによる自動化が労働市場の効率を高める一方で、低技能労働者の失業を増加させる場合、格差原理はこのような帰結を許容しない。したがって、AI導入に際しては、再分配政策(ユニバーサル・ベーシック・インカムなど)や再教育プログラムが正義の要請として求められることになる。

図2:AI倫理理論の適用領域マッピング

具体性(抽象 → 具体的行為指針) 適用範囲(個別 → 普遍) 功利主義 最適化・定量評価 義務論 権利・ルール制約 徳倫理学 開発者の徳 ロールズ 公正性基準 ケア倫理 関係性重視 契約論 合意・手続き

ケア倫理学とAI:関係性の倫理

ケア倫理学(Ethics of Care)は、Carol Gilligan(1982)の『もうひとつの声で(In a Different Voice)』に端を発し、Nel Noddings(1984)、Virginia Held(2006)らによって展開された倫理理論である。ケア倫理学は、従来の倫理理論が前提とする抽象的・普遍的な道徳原理を批判し、具体的な人間関係における応答性(responsiveness)、脆弱性(vulnerability)、相互依存性(interdependence)を倫理の中心に据える。

AI倫理におけるケア倫理学の意義は、AIシステムが人間の具体的な関係性に介入することの倫理的含意を明確にする点にある。例えば、介護ロボットの導入は、高齢者と介護者の間のケア関係を変質させる可能性がある。ケア倫理学の観点からは、技術的効率の向上よりも、ケア関係の質と豊かさの維持が優先される。

Virginia Held(2006)は、ケアを「人々やその人々が生きていくために依存するあらゆるものの世界に対する、維持、継続、修復のための活動を含む種別的活動(species activity)」と定義している。この定義に基づけば、AI開発は単なる技術的営為ではなく、人間の相互依存的なケア関係を維持・修復するための実践として位置づけられるべきである。

Corinne Cath(2018)は、ケア倫理学をAIガバナンスに応用し、AIの影響を受ける脆弱な人々(vulnerable populations)への特別な配慮を要請している。これは、ロールズの格差原理とも通底する主張であるが、ケア倫理学は、抽象的な原理ではなく、具体的な関係性における応答を重視する点で独自の貢献を提供する。

非西洋的倫理観とAI:多元的視座の必要性

上述の倫理理論はすべて西洋哲学の伝統に属するが、AIは本質的にグローバルな技術であり、非西洋的倫理観の包摂は不可欠である。儒教倫理学における「仁(rén)」の概念は、人間関係における相互的な徳の実践を強調し、ケア倫理学との親和性が高い。一方、仏教倫理学における「縁起(pratītyasamutpāda)」の概念——すべての存在は相互に依存しているという教え——は、AIシステムの社会的影響を全体論的(holistic)に捉える視座を提供する。

Ubuntu哲学——「私は、私たちがいるから存在する(I am because we are)」——は、アフリカの伝統的倫理観に根ざし、個人の道徳性を共同体的関係性から切り離さない。この視座は、個人主義的な西洋倫理学とは異なる仕方でAI倫理を構想する可能性を開く。Sabelo Mhlambi(2020)は、Ubuntu哲学に基づくAI倫理の枠組みを提唱し、AIシステムの設計において共同体の調和(communal harmony)と相互尊重(mutual respect)を中心的原理とすべきだと主張している。

イスラム倫理学における「マスラハ(maṣlaḥa, 公益)」の概念も、AI倫理の文脈において重要な示唆を提供する。マスラハは、イスラム法学(fiqh)における法的推論の原理として、共同体の福利を守るための柔軟な法解釈を許容する。AIの規制枠組みにおいて、技術的イノベーションと社会的保護のバランスを図る際に、マスラハの概念は有用な理論的資源となりうる。

このように、AI倫理は単一の倫理理論に依拠するのではなく、多元的な倫理的視座を統合する必要がある。Luciano Floridi(2013)が提唱する「情報倫理学(Information Ethics)」は、功利主義、義務論、徳倫理学の要素を統合しつつ、情報的実在(informational entities)の内在的価値を認める「存在中心的倫理学(ontic-centric ethics)」として構想されている。この枠組みは、AI倫理の多元的性格に対応するための一つの試みとして評価できる。

実践的倫理フレームワークの展望

理論的考察を実践に橋渡しする試みとして、近年、複数のAI倫理フレームワークが提案されている。IEEE(2019)の『Ethically Aligned Design(倫理的に整合した設計)』は、人間の福利(well-being)、データ主体の代理性(data agency)、技術の透明性(transparency)、説明責任(accountability)、そして悪用の防止(awareness of misuse)を五つの柱として掲げている。

欧州委員会のHigh-Level Expert Group on AI(HLEG-AI)が2019年に発表した『信頼できるAIのための倫理ガイドライン(Ethics Guidelines for Trustworthy AI)』は、(1) 人間の代理性と監督、(2) 技術的堅牢性と安全性、(3) プライバシーとデータガバナンス、(4) 透明性、(5) 多様性・非差別・公正性、(6) 社会的・環境的福利、(7) 説明責任——の7つの要件を提示している。

これらのフレームワークは、特定の倫理理論に排他的に依拠するのではなく、複数の理論的伝統から「反照的均衡(reflective equilibrium)」を通じて原則を導出している点で、実践的な有用性を持つ。しかし同時に、原則の抽象性ゆえに具体的な設計判断への翻訳が困難であるという批判、そして「倫理洗浄(ethics washing)」——倫理的原則の表面的な採用によって実質的な規制を回避する企業戦略——への加担という懸念も提起されている。

Brent Mittelstadt(2019)は、AI倫理原則の乱立が「原則の収斂(convergence of principles)」をもたらしているように見える一方で、その解釈と実装においては深刻な分岐が存在すると指摘している。例えば、「公正性(fairness)」という概念は、少なくとも21の数学的に非互換な定義が存在し(Narayanan, 2018)、どの定義を採用するかは実質的な倫理的選択を伴う。

結論:統合的AI倫理学の構築に向けて

本稿では、AI倫理学の主要な理論的基盤を体系的に検討した。功利主義は定量的な意思決定枠組みを提供するが、少数者の権利保護と効用測定の困難に直面する。義務論は個人の権利と尊厳を保護する強固な枠組みを提供するが、義務の衝突と柔軟性の欠如が課題となる。徳倫理学は技術開発の文脈における人格的卓越を要求するが、具体的な行為指針の提供において限界がある。ロールズの正義論はアルゴリズム的公正性の理論的基盤を提供し、ケア倫理学は関係性における脆弱性への配慮を要請する。

これらの考察から導出される結論は、AI倫理が単一の理論的枠組みによって完全にカバーされることはないという認識、すなわち「倫理的多元主義(ethical pluralism)」の受容である。William Ross(1930)が一応の義務の多元性を認めたように、AI倫理においても、異なる倫理理論がそれぞれ固有の洞察を提供し、それらの間の緊張関係こそが倫理的判断の深化をもたらすのである。

今後の研究課題として、第一に、非西洋的倫理観のより体系的な統合が挙げられる。第二に、抽象的な倫理原則を具体的な技術的設計に翻訳するための方法論——いわば「倫理のエンジニアリング(engineering ethics)」——の開発が急務である。第三に、AI倫理の制度化(institutionalization)のあり方——独立した倫理審査機関の設立、倫理監査制度の確立、市民参加メカニズムの構築——についてのさらなる議論が必要である。

AI技術がもたらす倫理的課題は、哲学的思考と技術的知識の架橋を要求する。本稿が、その架橋の一助となれば幸いである。

参考文献

  1. Anscombe, G.E.M. (1958). "Modern Moral Philosophy." Philosophy, 33(124), 1–19.
  2. Bentham, J. (1789). An Introduction to the Principles of Morals and Legislation. London: T. Payne.
  3. Binns, R. (2018). "Fairness in Machine Learning: Lessons from Political Philosophy." Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency, 149–159.
  4. Cath, C. (2018). "Governing Artificial Intelligence: Ethical, Legal and Technical Opportunities and Challenges." Philosophical Transactions of the Royal Society A, 376(2133).
  5. Coeckelbergh, M. (2012). Growing Moral Relations: Critique of Moral Status Ascription. Palgrave Macmillan.
  6. Floridi, L. (2013). The Ethics of Information. Oxford University Press.
  7. Foot, P. (1978). Virtues and Vices and Other Essays in Moral Philosophy. Oxford University Press.
  8. Gilligan, C. (1982). In a Different Voice: Psychological Theory and Women's Development. Harvard University Press.
  9. Held, V. (2006). The Ethics of Care: Personal, Political, and Global. Oxford University Press.
  10. IEEE (2019). Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems.
  11. Kant, I. (1785). Grundlegung zur Metaphysik der Sitten. Riga: J.F. Hartknoch.
  12. Korsgaard, C. (1996). The Sources of Normativity. Cambridge University Press.
  13. MacIntyre, A. (1981). After Virtue: A Study in Moral Theory. University of Notre Dame Press.
  14. Mhlambi, S. (2020). "From Rationality to Relationality: Ubuntu as an Ethical and Human Rights Framework for Artificial Intelligence Governance." Carr Center Discussion Paper Series, 2020-009.
  15. Mill, J.S. (1863). Utilitarianism. London: Parker, Son, and Bourn.
  16. Mittelstadt, B. (2019). "Principles Alone Cannot Guarantee Ethical AI." Nature Machine Intelligence, 1, 501–507.
  17. Narayanan, A. (2018). "Translation Tutorial: 21 Fairness Definitions and Their Politics." Proceedings of FAT*.
  18. Noddings, N. (1984). Caring: A Feminine Approach to Ethics and Moral Education. University of California Press.
  19. Railton, P. (1984). "Alienation, Consequentialism, and the Demands of Morality." Philosophy & Public Affairs, 13(2), 134–171.
  20. Rawls, J. (1971). A Theory of Justice. Harvard University Press.
  21. Ross, W.D. (1930). The Right and the Good. Oxford University Press.
  22. Vallor, S. (2016). Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.