序論:AIのエネルギー危機

人工知能、特に大規模言語モデル(LLM)の急速な発展は、計算資源の爆発的な需要増大を伴っている。OpenAIのGPT-4、GoogleのGemini、AnthropicのClaudeなどの最先端モデルの訓練には、数千から数万のGPUを数週間から数ヶ月にわたって稼働させる必要があり、そのエネルギー消費と環境負荷は無視できない規模に達している。

Strubell, Ganesh, & McCallum(2019)の先駆的研究は、大規模NLPモデルの訓練における炭素排出量が、自動車のライフサイクル排出量の5倍に相当しうることを示し、AI研究コミュニティに衝撃を与えた。以来、AIの環境負荷は「Green AI」「Sustainable AI」として学術的議論の主要テーマとなっている。

本稿では、AIの環境負荷を、(1) エネルギー消費の定量的分析、(2) 炭素排出量の推定、(3) 水資源の消費、(4) 電子廃棄物、(5) 環境負荷の軽減策、の観点から体系的に論じる。

エネルギー消費の定量的分析

AIの計算需要は指数関数的に増大している。Sevilla et al.(2022)の分析によれば、著名なAIモデルの訓練に使用される計算量(FLOP)は、2010年代以降、約3.4ヶ月ごとに倍増しており、ムーアの法則(約2年で倍増)を大幅に上回るペースである。大規模言語モデルの時代に入って以降、この傾向はさらに加速している。

具体的な数値として、GPT-3(175Bパラメータ)の訓練には約1,287 MWhの電力が消費されたと推定されている(Patterson et al., 2021)。これは、米国の平均的な家庭の年間電力消費量(約10.5 MWh)の約120倍に相当する。GPT-4の訓練コストは公開されていないが、パラメータ数と計算量の規模から、GPT-3の数倍以上のエネルギーが消費されたと推定される。

訓練(training)に加えて、推論(inference)のエネルギー消費も重要である。訓練は一度行えば完了するが、推論は継続的に行われる。Luccioni, Viguier, & Ligozat(2023)の研究は、BLOOMモデル(176B)の推論における炭素排出量を分析し、数百万のユーザーによる日常的な使用が、訓練時の排出量を短期間で上回ることを示した。IEA(国際エネルギー機関, 2024)は、データセンターの電力消費が2026年までに倍増する可能性があり、AIがその主要な牽引力であると報告している。

炭素排出量の推定

AIの炭素排出量は、使用する電力の炭素強度(carbon intensity)に大きく依存する。同じ計算量でも、再生可能エネルギーで電力を供給するデータセンターと、石炭火力で電力を供給するデータセンターでは、炭素排出量が大幅に異なる。

Patterson et al.(2021)のGoogleの研究は、AIモデルの訓練における炭素排出量を、(1) モデルアーキテクチャの効率、(2) ハードウェアの効率(GPU vs TPU)、(3) データセンターのPUE(Power Usage Effectiveness)、(4) 電力グリッドの炭素強度、の四つの要因に分解して分析した。彼らの知見によれば、データセンターの立地選択(低炭素電力の地域を選ぶ)によって、同一の訓練で炭素排出量を最大5–10倍削減できる。

Strubell et al.(2019)の推定では、Transformerモデルのニューラルアーキテクチャ探索(NAS)を含む完全な訓練プロセスは、約284トンのCO₂を排出する。これは、米国の平均的な自動車のライフタイム排出量(約57トン)の5倍に相当する。ただし、この推定は当時のハードウェア効率に基づいており、最新のGPU(H100等)やTPU(v5p等)による効率改善を反映していない。

図1:主要AIモデルの推定炭素排出量(訓練時)

訓練時CO₂排出量の推定値(tCO₂eq) 0 100 300 500 700 BERT ~0.6t T5-11B ~47t GPT-3 ~552t BLOOM ~25t* *仏原子力電力 GPT-4 推定~数千t Llama 3 ~2,290t 参考: 自動車1台のライフタイム排出量 ≈ 57 tCO₂eq(米国平均)

水資源の消費

AIの環境負荷は炭素排出量にとどまらない。Li et al.(2023)の研究は、データセンターの冷却に使用される水資源の消費量に焦点を当てた。彼らの推定によれば、GPT-3の訓練には約700,000リットルの淡水が冷却のために消費された。ChatGPTとの20–50回の質問応答は約500mlの水を消費するとされる。

Microsoftの2023年環境報告書は、同社の水消費量が前年比34%増加したことを報告しており、これはAIインフラの急拡大と強く相関している。水資源の消費は、特に水ストレスの高い地域(米国南西部、中東など)におけるデータセンターの立地において、深刻な環境正義(environmental justice)の問題を提起する。

ハードウェアと電子廃棄物

AIの環境負荷は、運用時のエネルギー消費だけでなく、ハードウェアのライフサイクル全体にわたる。GPUの製造には、希少金属(レアアース)の採掘、半導体の製造プロセスにおけるエネルギーと化学物質の使用、そしてサプライチェーン全体の炭素排出が伴う。

Gupta et al.(2022)の研究は、MLシステムの「体現エネルギー(embodied energy)」——ハードウェアの製造・輸送・廃棄に伴うエネルギー——が、運用エネルギーの20–50%に達する可能性があることを示した。AI専用チップの急速な世代交代は、電子廃棄物(e-waste)の増大をもたらし、適切なリサイクルインフラの構築が課題となっている。

NVIDIA H100 GPUの需要急増は、半導体サプライチェーンに大きな負荷を与えている。TSMCの先端プロセス(5nm以下)は、極めて高いエネルギー・水消費を伴い、台湾における水資源問題と直結している。

Green AI:効率化の技術的アプローチ

Schwartz, Dodge, Smith, & Etzioni(2020)は、「Green AI」の概念を提唱し、AI研究における計算効率の重視を呼びかけた。彼らは、Red AI(精度の最大化を追求し、計算コストを度外視するアプローチ)からGreen AI(精度と効率のバランスを追求するアプローチ)への転換を主張している。

技術的な効率化アプローチとして、(1) モデル圧縮——知識蒸留(knowledge distillation)、プルーニング(pruning)、量子化(quantization)による推論コストの削減、(2) 効率的なアーキテクチャ——Mixture of Experts(MoE)により、パラメータの一部のみを活性化することで計算コストを削減(例:Mixtralは総パラメータ46.7Bの一部のみを使用)、(3) 訓練効率化——Chinchilla最適スケーリング則(Hoffmann et al., 2022)に基づく、パラメータ数とデータ量の最適なバランスの探索、(4) ハードウェア効率——AI専用チップ(Google TPU、Intel Gaudi、Groq LPU)による電力効率の向上。

データセンターの効率化も重要である。PUE(Power Usage Effectiveness)の改善——Googleのデータセンターは平均PUE 1.10を達成——、液体冷却技術の導入、および再生可能エネルギーの直接調達(PPA: Power Purchase Agreement)が進展している。

図2:AIの環境負荷軽減策の体系

アルゴリズム・モデル層 知識蒸留 | プルーニング | 量子化 | MoE | Chinchilla最適化 | NAS効率化 ハードウェア・インフラ層 AI専用チップ(TPU, LPU)| 液体冷却 | PUE最適化 | エッジ推論 エネルギー・立地層 再生可能エネルギーPPA | 低炭素電力地域への立地 | カーボンアウェア計算 制度・報告層 炭素排出量報告義務 | 効率ベンチマーク | 環境影響評価 | カーボンプライシング 影響の大きさ

環境影響の報告と透明性

AIの環境負荷に関する透明性は、現在のところ著しく不足している。主要なAI企業は、モデルの訓練における炭素排出量を体系的に報告していない。Luccioni & Hernandez-Garcia(2023)は、AI論文における計算資源とエネルギー消費の報告が極めて稀であることを指摘し、学術出版における報告基準の策定を提唱している。

Henderson, Hu, Romero, Tubilewicz, Barber, Song, & Raghunathan(2020)のExperiment Impactトラッカーや、Lacoste, Luccioni, Schmidt, & Dandres(2019)のML CO₂ Impactは、AIの炭素排出量を自動的に推定・追跡するツールとして開発されている。

EU AI規則は、高リスクAIシステムに対してエネルギー効率の報告を要求する規定を含んでおり、AI環境負荷の制度的透明性に向けた重要な一歩となっている。さらに、EUの企業サステナビリティ報告指令(CSRD)は、AI開発企業に対しても環境影響の報告を求める可能性がある。

AIによる環境問題への貢献

AIの環境負荷を論じる際に、AIが環境問題の解決に貢献する可能性も考慮すべきである。Rolnick et al.(2022)の「Tackling Climate Change with Machine Learning」は、AIが気候変動の緩和と適応に貢献できる13の分野——電力システム、交通、建築、産業、農業、森林・土地利用、気候科学、太陽地球工学、個人行動、集団行動、教育、金融——を体系的に整理している。

具体的な応用として、(1) 電力グリッドの最適化——DeepMindのAIによるGoogleデータセンターの冷却効率40%改善、(2) 気象予測——GraphCast(Lam et al., 2023)による高精度気象予測、(3) 材料科学——新しい蓄電池材料やカーボンキャプチャー材料の発見、(4) 農業——精密農業によるリソース利用の最適化、などが挙げられる。

しかし、AIの環境貢献はAI自体の環境負荷を自動的に正当化するものではない。正味の環境影響を評価するためには、AIの環境コストとベネフィットの双方を定量的に比較する必要がある。

結論:持続可能なAI開発に向けて

AIの環境負荷は、技術的進歩の裏面として深刻な課題を提起している。訓練と推論の双方におけるエネルギー消費の指数的増大は、気候変動目標との整合性において重大な懸念を生じさせる。しかし、この課題は技術的・制度的な対応によって軽減可能であり、絶望的な状況ではない。

持続可能なAI開発に向けては、(1) 計算効率の継続的改善(アルゴリズム、ハードウェア、インフラの全層において)、(2) 環境影響の透明性の確保(標準化された報告基準の策定と義務化)、(3) 再生可能エネルギーへの移行の加速、(4) AIの環境貢献の最大化と環境コストの最小化のバランス、が重要である。AI研究コミュニティは、精度の追求と環境責任の両立を、研究文化として内面化すべきである。

参考文献

  1. Gupta, U., et al. (2022). "Chasing Carbon: The Elusive Environmental Footprint of Computing." IEEE Micro, 42(4), 37–47.
  2. Henderson, P., et al. (2020). "Towards the Systematic Reporting of the Energy and Carbon Footprints of Machine Learning." JMLR, 21(248), 1–43.
  3. Hoffmann, J., et al. (2022). "Training Compute-Optimal Large Language Models." NeurIPS 2022.
  4. IEA (2024). Electricity 2024: Analysis and Forecast to 2026.
  5. Lacoste, A., et al. (2019). "Quantifying the Carbon Emissions of Machine Learning." arXiv:1910.09700.
  6. Lam, R., et al. (2023). "Learning Skillful Medium-Range Global Weather Forecasting." Science, 382(6677).
  7. Li, P., et al. (2023). "Making AI Less 'Thirsty'." arXiv:2304.03271.
  8. Luccioni, A.S., et al. (2023). "Estimating the Carbon Footprint of BLOOM." JMLR, 24(253), 1–15.
  9. Patterson, D., et al. (2021). "Carbon Emissions and Large Neural Network Training." arXiv:2104.10350.
  10. Rolnick, D., et al. (2022). "Tackling Climate Change with Machine Learning." ACM Computing Surveys, 55(2).
  11. Schwartz, R., et al. (2020). "Green AI." Communications of the ACM, 63(12), 54–63.
  12. Sevilla, J., et al. (2022). "Compute Trends Across Three Eras of Machine Learning." arXiv:2202.05924.
  13. Strubell, E., Ganesh, A., & McCallum, A. (2019). "Energy and Policy Considerations for Deep Learning in NLP." ACL 2019.