序論:マルチモーダルAIの学術的展望

人間の認知は本質的にマルチモーダルである。視覚、聴覚、言語、触覚等の複数の感覚モダリティを統合的に処理し、世界の理解と行動の決定を行っている。マルチモーダル学習(Multimodal Learning)は、この認知的能力を計算的に再現することを目指す研究領域であり、近年の大規模基盤モデル(Foundation Model)の発展により、劇的な進展を遂げている。

GPT-4V(OpenAI, 2023)、Gemini(Google, 2024)、Claude 3(Anthropic, 2024)等の最新のマルチモーダル大規模言語モデル(Multimodal LLM; MLLM)は、テキスト、画像、音声、動画を統合的に理解し生成する能力を実現している。これらのモデルの背後には、対照学習(contrastive learning)、クロスモーダルアテンション(cross-modal attention)、視覚エンコーダと言語モデルの接続等の理論的・技術的基盤が存在する。

本稿では、マルチモーダル学習の理論的枠組みを体系的に解説する。モダリティ間の表現整合(representation alignment)、融合アーキテクチャ(fusion architecture)、訓練手法、そして最新のマルチモーダル生成モデルに至るまで、この急速に発展する分野の学術的基盤を包括的に分析する。

モダリティ間表現整合の理論

マルチモーダル学習の根本的課題は、異なるモダリティの情報を共通の表現空間に射影し、意味的に対応する概念を近傍に配置することである。この表現整合(representation alignment)問題は、対照学習、対応学習(correspondence learning)、および共有表現学習(shared representation learning)の三つの観点から理論的に分析される。

CLIP(Contrastive Language-Image Pre-training; Radford et al., 2021)は、対照学習に基づくマルチモーダル表現学習の代表的手法であり、4億の画像-テキストペアから視覚と言語の共同埋め込み空間を学習した。CLIPの訓練目的関数は、InfoNCE損失(van den Oord et al., 2018)に基づく:

L_CLIP = −(1/N) Σᵢ [ log(exp(sim(vᵢ, tᵢ)/τ) / Σⱼ exp(sim(vᵢ, tⱼ)/τ)) ]

ここで vᵢtᵢ はそれぞれ画像と対応テキストの埋め込みベクトル、sim はコサイン類似度、τ は温度パラメータである。この損失関数は、対応するペアの類似度を最大化し、非対応ペアの類似度を最小化する。

理論的には、InfoNCE損失は相互情報量(mutual information)の下界を最大化することに対応する(van den Oord et al., 2018)。すなわち、CLIPの訓練は画像とテキストの間の相互情報量 I(V;T) の近似的最大化として解釈される。しかし、Tschannen et al.(2020)は、相互情報量の推定精度が表現の品質を直接規定するわけではなく、エンコーダの帰納的バイアスが重要であることを指摘している。

SigLIP(Zhai et al., 2023)は、CLIPのsoftmaxベース対照損失をシグモイド損失に置き換え、大規模バッチ処理の効率性を改善した。各ペアを独立に二値分類する形式であるため、all-gather通信の必要性が削減される。

ALIGN(Jia et al., 2021)は、ノイズの多いAlt-Textデータ(18億ペア)からのスケーラブルな学習を実証し、データの量が品質の不足を補償できることを示した。この知見は、マルチモーダルのスケーリング則がテキストのみのLLMとは異なる特性を持つ可能性を示唆している。

マルチモーダル表現学習のアーキテクチャ分類

A. 双対エンコーダ (CLIP, SigLIP) 画像Enc テキストEnc v t cosine sim ✓ 検索効率 / ✗ 深い融合不可 B. 融合エンコーダ (VisualBERT, UNITER) 画像 テキスト Cross-Attn f ✓ 深い融合 / ✗ 検索に不向き C. LLMベース (LLaVA, GPT-4V) ViT Projector LLM Decoder y ✓ 生成能力 / ✓ ICL対応 マルチモーダルモデルの発展タイムライン 2019 VisualBERT LXMERT 2021 CLIP DALL-E 2022 Flamingo BLIP-2 2023 GPT-4V LLaVA 2024 Gemini 1.5 任意モダリティ統合

視覚-言語モデルのアーキテクチャ

視覚-言語モデル(Vision-Language Model; VLM)は、マルチモーダル学習の中で最も精力的に研究されている領域であり、画像理解と言語生成を統合するアーキテクチャの設計が中心的課題である。

初期の視覚-言語モデルは、画像特徴とテキストトークンをTransformerの共有入力空間に統合する融合エンコーダ型のアプローチを採用した。VisualBERT(Li et al., 2019)やUNITER(Chen et al., 2020)は、物体検出器(Faster R-CNN等)から抽出された領域特徴をテキストトークンと連結し、BERTベースのTransformerに入力する。LXMERT(Tan & Bansal, 2019)は、視覚とテキストに独立のエンコーダを用いた後、クロスアテンション層で融合する二段構成を採用した。

Vision Transformer(ViT; Dosovitskiy et al., 2021)の成功を受け、画像の領域特徴抽出がViTベースの直接的なパッチエンコーディングに置き換えられた。これにより、物体検出器への依存が排除され、よりエンドツーエンドなアーキテクチャが実現された。

Flamingo(Alayrac et al., 2022)は、凍結した視覚エンコーダと凍結した言語モデルの間にPerceiver Resampler(可変長の視覚特徴を固定数のトークンに変換)とgated cross-attention層を挿入するアーキテクチャを提案した。この設計は、事前訓練済みモデルのパラメータを保持しつつ、マルチモーダル能力を効率的に獲得することを可能にした。

BLIP-2(Li et al., 2023)は、Querying Transformer(Q-Former)を導入し、学習可能なクエリベクトルを用いて視覚エンコーダからの情報を言語モデルに適した表現に変換する。Q-Formerは、凍結した視覚エンコーダとLLMのブリッジとして機能し、視覚-言語の表現整合と生成能力の両方を効率的に獲得する。

LLaVA(Liu et al., 2024)は、より単純なアプローチとして、線形射影層のみでViTの出力をLLMの入力空間に変換する手法を提案した。このシンプルなアーキテクチャが、複雑なQ-Formerと同等以上の性能を達成したことは、マルチモーダルモデルの設計における重要な知見である。LLaVA-1.5(Liu et al., 2024)では、線形射影がMLP射影に置き換えられ、高解像度画像への対応も改善された。

InternVL(Chen et al., 2024)やCogVLM(Wang et al., 2024)等の最新モデルは、視覚エンコーダの大規模化(6B パラメータ級のViT)や、視覚とテキストの特徴を深いレベルで統合するアーキテクチャを探求している。

対照学習の数理的基盤

対照学習(Contrastive Learning)は、マルチモーダル表現学習の理論的基盤を構成する手法であり、正のペア(対応するモダリティ間のデータ)の表現を近づけ、負のペア(非対応のデータ)の表現を遠ざけることを目的とする。

InfoNCE損失(van den Oord et al., 2018)は、対照学習の標準的な目的関数であり、相互情報量の変分下界として導出される。Nペアのミニバッチに対して、画像→テキスト方向の損失は:

L_i2t = −(1/N) Σᵢ log(exp(sᵢᵢ/τ) / Σⱼ exp(sᵢⱼ/τ))

ここで sᵢⱼ = vᵢ⊤tⱼ / (‖vᵢ‖‖tⱼ‖) はコサイン類似度、τ は温度パラメータである。対称的にテキスト→画像方向の損失も計算され、両方の平均がCLIPの訓練損失となる。

温度パラメータ τ は、対照損失の特性を制御する重要なハイパーパラメータである。低い温度は、類似度分布をよりシャープにし、hard negativeに対する感度を高める一方、学習の不安定化や表現の崩壊リスクを伴う。CLIPでは τ を学習可能なパラメータとして設定している。

バッチサイズは対照学習の性能に決定的な影響を与える。大きなバッチサイズはより多くの負例を提供し、相互情報量の推定精度を向上させる。CLIPは32,768のバッチサイズを使用しており、これは対照学習の有効性を確保するための重要な条件である。分散対照学習では、複数GPUにまたがるall-gather操作により大規模な負例プールを構成する。

Hard Negative Miningは、情報量の高い負例を重点的にサンプリングすることで、対照学習の効率を改善する手法である。しかし、過度に困難な負例への集中は、偽陰性(false negative)問題——意味的に類似しているが異なるペアとして扱われるデータ——を悪化させる可能性がある。

クロスモーダルアテンションの設計

クロスモーダルアテンション(Cross-Modal Attention)は、異なるモダリティ間の情報交換を実現する機構であり、マルチモーダルTransformerの中核的構成要素である。一方のモダリティのクエリが他方のモダリティのキー・バリューに注意を払うことで、モダリティ間の対応関係を学習する。

数理的には、視覚特徴 V ∈ ℝ^{m×d} とテキスト特徴 T ∈ ℝ^{n×d} に対するクロスアテンション(テキストからの視覚参照)は:

CrossAttn(T, V) = softmax(TW_Q · (VW_K)⊤ / √d_k) · VW_V

この操作により、テキストの各トークンが視覚特徴の関連する部分に選択的に注意を払い、グラウンディング(grounding)——言語表現と視覚的実体の対応付け——を実現する。

Flamingo(Alayrac et al., 2022)のgated cross-attentionは、クロスアテンション出力にゲーティング機構を適用し、初期化時にゲートをゼロに設定することで、事前訓練済みLLMの動作を保持しつつ段階的にマルチモーダル統合を学習する。この設計は、安定的なマルチモーダル訓練の実現に不可欠な技術的知見である。

Perceiver(Jaegle et al., 2021)およびPerceiver IO(Jaegle et al., 2022)は、学習可能な少数の潜在ベクトル(latent vectors)がモダリティ固有の入力にクロスアテンションを行うことで、任意のモダリティを統一的に処理するアーキテクチャを提案した。この設計は、入力の系列長に依存しない計算量を実現し、高解像度画像や長い動画等の大規模入力に対するスケーラビリティを提供する。

生成型マルチモーダルモデル

マルチモーダル理解に加えて、複数のモダリティにわたる生成能力は、統合的マルチモーダルモデルの次なるフロンティアである。テキストから画像、画像からテキスト、さらには任意モダリティ間の変換を統一的に扱うモデルの構築が精力的に研究されている。

DALL-E(Ramesh et al., 2021)は、テキストと画像のトークンを連結した系列に対する自己回帰モデリングにより、テキスト条件付き画像生成を実現した。画像はdVAE(discrete VAE)によって離散トークンに変換される。DALL-E 2(Ramesh et al., 2022)は、CLIPの埋め込み空間を仲介とする拡散モデルベースの生成に移行し、生成品質を大幅に向上させた。

Stable Diffusion(Rombach et al., 2022)は、Latent Diffusion Model(LDM)として、VAEの潜在空間で拡散過程を行うことで、計算効率と生成品質の両立を実現した。テキスト条件付けにはCLIPのテキストエンコーダが使用され、クロスアテンションを通じてU-Netの各層にテキスト情報が注入される。

最新の統合型マルチモーダルモデルは、理解と生成を単一のアーキテクチャで実現することを目指している。Chameleon(Meta, 2024)は、テキスト、画像、コードの各トークンを統一的なトークン空間で扱い、自己回帰的に任意のモダリティの入出力を生成する。Gemini 1.5(Google, 2024)は、テキスト、画像、音声、動画の入力を統合的に処理し、最大100万トークンの文脈長を実現する。

動画理解と生成は、時間的次元の追加によりさらなる計算的課題をもたらす。Video-LLaVA(Lin et al., 2024)、VideoChat(Li et al., 2024)等のモデルは、時系列的にサンプリングされたフレームを視覚トークンとしてLLMに入力する。Sora(OpenAI, 2024)に代表される動画生成モデルは、spacetime patchesに基づく拡散Transformerアーキテクチャを採用し、高品質な動画生成を実現している。

マルチモーダル学習の主要課題と解決アプローチ

マルチモーダル 学習 表現整合 CLIP, SigLIP 対照学習 モダリティ融合 Cross-Attention Q-Former 生成 拡散モデル AR生成 評価 ベンチマーク スケーリング データ・計算 効率化

マルチモーダル訓練戦略

マルチモーダルモデルの訓練は、単一モダリティモデルと比較して、アーキテクチャ設計、データ構成、訓練スケジュールの各面でさらなる考慮が必要である。

段階的訓練(staged training)は、最も広く採用されている戦略であり、典型的には以下の段階で構成される。第一段階では、視覚エンコーダとLLMの接続モジュール(射影層やQ-Former)のみを訓練し、視覚特徴を言語モデルの入力空間に整合させる。この段階では、大規模な画像-キャプションペアデータ(例:LAION-400M、CC-12M)が使用される。第二段階では、接続モジュールに加えてLLMの一部または全体を微調整し、指示追従能力やマルチモーダル対話能力を獲得する。高品質な指示-応答ペアデータが使用される。

どのコンポーネントを凍結し、どのコンポーネントを訓練するかは、重要な設計判断である。視覚エンコーダの凍結は、事前訓練された視覚表現の劣化を防止するが、タスク固有の視覚特徴の学習を制限する。LLMの凍結は、言語能力の保持に寄与するが、マルチモーダル統合の深さを制限する。実践的には、LoRA等のPEFT手法を用いてLLMを効率的に微調整するアプローチが広く採用されている。

データの品質と多様性は、マルチモーダルモデルの性能を根本的に規定する。ShareGPT4V(Chen et al., 2024)は、GPT-4Vを用いて高品質なキャプションを生成し、LLaVAの訓練データの品質向上を図った。ALLaVA(Chen et al., 2024)は、多様な視覚的質問応答データの自動生成を提案した。

評価とベンチマーク

マルチモーダルモデルの評価は、視覚理解、言語生成、および両者の統合能力を多角的に測定する必要がある。

MMBench(Liu et al., 2024)、MMMU(Yue et al., 2024)、MM-Vet(Yu et al., 2024)等の総合ベンチマークは、知覚、推論、知識等の多次元的な能力を評価する。MMMU は大学レベルの学術知識を要する問題を含み、マルチモーダルモデルの専門的理解能力を厳密に測定する。

Hallucination(幻覚)——モデルが画像に存在しない物体やイベントを言及する現象——の評価は、マルチモーダルモデル固有の重要な課題である。POPE(Li et al., 2023)、CHAIR(Rohrbach et al., 2018)等のベンチマークが幻覚の定量的評価を可能にする。

空間的推論(Spatial Reasoning)、光学文字認識(OCR)、チャート・図表理解等の特化的能力の評価も、実用的観点から重要である。TextVQA(Singh et al., 2019)、DocVQA(Mathew et al., 2021)、ChartQA(Masry et al., 2022)等のベンチマークが各能力の評価に用いられている。

理論的課題と今後の方向性

マルチモーダル学習の理論的理解には、多くの根本的課題が残されている。第一に、異なるモダリティの情報を最適に統合するための理論的原理が十分に確立されていない。情報理論的にはモダリティ間の相互情報量を最大化することが望ましいが、冗長性の排除と相補的情報の統合のバランスは非自明な問題である。

第二に、マルチモーダルモデルのスケーリング則は、テキストのみのLLMとは異なる特性を持つ可能性がある。視覚エンコーダ、接続モジュール、LLMの各コンポーネントへの計算資源の最適配分は、未解明の研究課題である。

第三に、マルチモーダル幻覚の根本的原因と対策は、現在の理解を超えた理論的分析を必要とする。視覚的グラウンディングの不完全性、言語モデルの事前分布への過依存、訓練データのバイアス等、複合的な要因の体系的分析が求められている。

第四に、三つ以上のモダリティ(テキスト、画像、音声、動画、3D等)を統一的に扱うany-to-anyモデルの構築は、アーキテクチャ設計と訓練手法の両面で根本的な革新を必要とする。Meta-Transformer(Zhang et al., 2023)やImageBind(Girdhar et al., 2023)等の研究がこの方向性を探求しているが、真に統合的なマルチモーダルモデルの実現は今後の課題である。

参考文献

  1. Alayrac, J.-B., et al. (2022). Flamingo: A visual language model for few-shot learning. Advances in Neural Information Processing Systems, 35.
  2. Chen, X., et al. (2020). UNITER: Universal image-text representation learning. Proceedings of ECCV 2020.
  3. Chen, Z., et al. (2024). InternVL: Scaling up vision foundation models and aligning for generic visual-linguistic tasks. Proceedings of CVPR 2024.
  4. Dosovitskiy, A., et al. (2021). An image is worth 16x16 words: Transformers for image recognition at scale. Proceedings of ICLR 2021.
  5. Girdhar, R., et al. (2023). ImageBind: One embedding space to bind them all. Proceedings of CVPR 2023.
  6. Jaegle, A., et al. (2021). Perceiver: General perception with iterative attention. Proceedings of ICML 2021.
  7. Jia, C., et al. (2021). Scaling up visual and vision-language representation learning with noisy text supervision. Proceedings of ICML 2021.
  8. Li, D., et al. (2023). BLIP-2: Bootstrapping language-image pre-training with frozen image encoders and large language models. Proceedings of ICML 2023.
  9. Li, L. H., et al. (2019). VisualBERT: A simple and performant baseline for vision and language. arXiv:1908.03557.
  10. Liu, H., et al. (2024). Visual instruction tuning. Advances in Neural Information Processing Systems, 36.
  11. Radford, A., et al. (2021). Learning transferable visual models from natural language supervision. Proceedings of ICML 2021.
  12. Ramesh, A., et al. (2021). Zero-shot text-to-image generation. Proceedings of ICML 2021.
  13. Ramesh, A., et al. (2022). Hierarchical text-conditional image generation with CLIP latents. arXiv:2204.06125.
  14. Rombach, R., et al. (2022). High-resolution image synthesis with latent diffusion models. Proceedings of CVPR 2022.
  15. Tan, H., & Bansal, M. (2019). LXMERT: Learning cross-modality encoder representations from transformers. Proceedings of EMNLP 2019.
  16. van den Oord, A., Li, Y., & Vinyals, O. (2018). Representation learning with contrastive predictive coding. arXiv:1807.03748.
  17. Yue, X., et al. (2024). MMMU: A massive multi-discipline multimodal understanding and reasoning benchmark. Proceedings of CVPR 2024.
  18. Zhai, X., et al. (2023). Sigmoid loss for language image pre-training. Proceedings of ICCV 2023.