序論:AI覇権競争の構図

人工知能は、21世紀の地政学的競争における最も重要な技術的領域の一つとなっている。Vladimir Putin大統領の2017年の発言——「AIの分野でリーダーとなる者が世界を支配する」——は、AI技術の地政学的重要性を象徴的に示している。米中間のAI覇権競争、EUの規制的リーダーシップ、グローバルサウスの包摂問題、そして国際的なAIガバナンスの枠組み構築は、技術政策の最前線に位置する課題である。

本稿では、グローバルAIガバナンスを、(1) 主要国・地域のAI戦略と規制の比較分析、(2) 米中AI競争の構造、(3) 国際的なガバナンス枠組み、(4) グローバルサウスの視点、(5) 技術標準と規範の形成、の観点から体系的に論じる。

主要国・地域のAI戦略

米国:米国のAIガバナンスは、イノベーション促進を基調としつつ、バイデン政権のExecutive Order on AI(2023年10月)により安全性規制の枠組みが強化された。同行政命令は、一定規模以上のAIモデルの訓練に関する報告義務、AIシステムの安全性テスト(red-teaming)の要求、NIST AI Safety Instituteの設立などを規定している。米国の規制アプローチは、セクター別(金融、医療、雇用等)の既存規制枠組みにAI固有の要件を追加する分散型モデルが基本である。

EU:EUは、AI規則(AI Act, 2024年発効)により、世界初の包括的なAI規制法を制定した。AI規則はリスクベースアプローチを採用し、AIシステムを(1) 禁止されるAI(社会スコアリング、リアルタイム遠隔生体認識等)、(2) 高リスクAI(要適合性評価)、(3) 限定リスクAI(透明性義務)、(4) 最小リスクAI(規制なし)、の4段階に分類する。「Brussels Effect」——EUの規制基準がグローバルに影響を及ぼす現象——はAI分野にも及びつつある。

中国:中国のAI戦略は、「新世代人工知能発展計画」(2017年、2030年までにAIの世界的リーダーとなることを目標)に基づく。規制面では、アルゴリズム推薦管理規定(2022年)、ディープフェイク規定(2023年)、生成AI管理弁法(2023年)と、特定のAI応用に対する個別規制を積み重ねるアプローチを採る。中国のAI規制は、イノベーション促進と社会的安定・共産党の統治の維持という二つの目標のバランスを特徴とする。

日本:日本は、「AI戦略2022」およびAI事業者ガイドライン(2024年)を通じて、「人間中心のAI社会原則」に基づくソフトロー(非拘束的指針)中心のアプローチを採用している。G7広島AIプロセスの共同議長として、国際的なAIガバナンスの調整役を果たした。

図1:主要国・地域のAI規制アプローチの比較

規制の包括性(セクター別 → 水平的) 規制の拘束力(ソフトロー → ハードロー) EU AI Act 米国 EO + セクター別 中国 個別規制の積上 日本 ソフトロー中心 英国 プロイノベーション インド

米中AI競争の構造

米中AI競争は、技術開発、人材獲得、半導体サプライチェーン、データアクセス、軍事応用の複数の次元にわたる。Allen(2022)の分析によれば、米国はAIの基礎研究と最先端モデル開発において優位性を保持しているが、中国はデータ量、応用展開のスピード、そして国家的な産業政策の一貫性において強みを持つ。

米国の対中半導体輸出規制(2022年10月、2023年10月更新)は、AI競争の最も重要な地政学的ツールの一つである。NVIDIA A100/H100等の先端AI半導体および製造装置の対中輸出禁止は、中国のAI開発能力に直接的な影響を与えることを意図している。しかし、中国はHuaweiのAscendチップやBaidu等による国産AI半導体の開発を加速させており、長期的な効果は不確実である。

AIの軍事利用における米中競争は特に懸念される。中国の「軍民融合」政策は、民生AI技術の軍事転用を制度的に促進しており、自律型兵器、AI支援の指揮統制システム、AI駆動のサイバー攻撃能力の開発が進められている。米国も、Project Maven以降、DARPAのAI Next Campaign等を通じて軍事AIの開発を推進している。

AI人材をめぐる競争も激化している。MacroPolo(2023)のGlobal AI Talent Trackerによれば、世界のトップAI研究者の約60%が米国の機関で活動しているが、中国出身の研究者が占める割合は増加傾向にある。米国のビザ政策や中国の人材引き戻し政策(千人計画等)は、AI人材の地理的分布に直接的な影響を与えている。

国際的なガバナンス枠組み

G7広島AIプロセス(2023年):日本の議長国下で開始されたG7広島AIプロセスは、「広島AIプロセス包括的政策枠組み」を採択し、高度なAIシステムの開発者向けの国際指導原則と行動規範を策定した。このプロセスは、G7における最初の実質的なAIガバナンスのイニシアティブとして位置づけられる。

国連:国連事務総長のAI諮問機関(AI Advisory Body, 2023年設立)は、2024年に「Governing AI for Humanity」報告書を発表し、国際的なAIガバナンスの原則とメカニズムを提案した。国連総会は2024年3月にAIに関する初の決議を採択し、安全で信頼できるAIの推進を求めた。

OECD AI原則(2019年):OECDは、AI政策に関する最初の政府間基準として「AI原則」を策定した。これは46カ国が支持し、包摂的成長・持続可能な発展・幸福、人間中心の価値観と公正性、透明性と説明可能性、堅牢性・安全性・セキュリティ、説明責任の5原則を掲げている。

AI Safety Summit:2023年のBletchley Park AI Safety Summit(英国)は、28カ国と主要AI企業が「Bletchley Declaration」に署名し、フロンティアAIの安全性に関する国際協力を確認した。2024年のソウルAIサミット(韓国)では、AI安全性研究の国際的なネットワーク構築が議論された。

図2:国際AIガバナンスの多層的構造

グローバル(国連、OECD、GPAI) 多国間(G7、AI Safety Summit) 地域的(EU AI Act、ASEAN等) 国内法 (各国規制) 各層は相互に影響し合い、規範の「上昇」と「下降」が生じる (Brussels Effect: EU規制のグローバルな波及 / 国内実践の国際標準化)

グローバルサウスとAIガバナンス

現在のAIガバナンスの議論は、主として先進国(米国、EU、英国、日本等)によって主導されており、グローバルサウスの視点の包摂は重要な課題である。アフリカ連合(AU)のAI大陸戦略(2024年)、ASEANのAIガバナンスガイド(2024年改訂版)などの地域的イニシアティブは、グローバルサウスの視点をAIガバナンスに反映させる試みとして注目される。

グローバルサウスにおけるAIガバナンスの特有の課題として、(1) デジタルインフラの不足——AIの恩恵を享受するための基盤が不十分、(2) データの植民地主義(data colonialism)——グローバルサウスのデータが先進国のAI企業によって抽出・利用される構造、(3) AIモデルにおける文化的・言語的偏りの是正、(4) AI開発における包摂的な参加の確保、が挙げられる。

Mohamed, Png, & Isaac(2020)の「Decolonial AI」は、AI技術のグローバルな展開が植民地主義的な権力構造を再生産するリスクを指摘し、脱植民地的な視点からのAI倫理・ガバナンスの再構築を主張している。

技術標準と規範形成

AIの技術標準は、ISO/IEC JTC 1/SC 42(AI標準化委員会)を中心に策定が進められている。ISO/IEC 42001(AIマネジメントシステム)、ISO/IEC 23894(AI リスクマネジメント)、NIST AI Risk Management Framework(AI RMF 1.0, 2023年)などが主要な標準として位置づけられる。

技術標準の地政学的含意は大きい。AIの技術標準を設定する主導権は、産業競争力と規制権力に直結する。中国は、国際標準化機構における影響力の拡大を積極的に推進しており、AI標準の策定において西側諸国との競争が展開されている。

結論:協調的ガバナンスの可能性

グローバルAIガバナンスの構築は、地政学的競争と国際協調という相反する力学の中で進行している。核不拡散条約(NPT)や気候変動枠組条約(UNFCCC)のような法的拘束力のある国際条約の策定は短期的には困難であるが、OECD AI原則やG7広島AIプロセスのようなソフトローの蓄積が、将来のハードローの基盤を形成しつつある。

AI技術のグローバルな性格は、国際協調なくして効果的なガバナンスが達成できないことを意味する。同時に、各国・地域の政治的・文化的多様性は、「一つのサイズがすべてに適合する」グローバル規制の限界を示している。多層的・多元的なガバナンスの枠組み——グローバルな原則のもとで地域的・国内的な実装の多様性を許容するアプローチ——が、最も現実的な方向性であると考えられる。

参考文献

  1. Allen, G.C. (2022). "Choking Off China's Access to the Future of AI." CSIS Report.
  2. Bradford, A. (2020). The Brussels Effect: How the European Union Rules the World. Oxford University Press.
  3. European Parliament (2024). Regulation (EU) 2024/1689 (AI Act).
  4. MacroPolo (2023). The Global AI Talent Tracker.
  5. Mohamed, S., Png, M.T., & Isaac, W. (2020). "Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence." Philosophy & Technology, 33, 659–684.
  6. OECD (2019). Recommendation of the Council on Artificial Intelligence.
  7. Roberts, H., et al. (2023). "Governing Artificial Intelligence in China and the European Union." International Journal of Information Management, 65.
  8. UK Government (2023). The Bletchley Declaration by Countries Attending the AI Safety Summit.
  9. UN High-Level Advisory Body on AI (2024). Governing AI for Humanity.
  10. White House (2023). Executive Order on Safe, Secure, and Trustworthy AI.