AIインフラの現状と未来の展望
AIインフラ市場は急速な成長を続けており、2024年には市場規模が684億6,000万米ドル、2029年には1,712億1,000万米ドルに達すると予測されています。
本記事では、この成長を牽引する要因や主要企業の動向に注目します。
特に、NVIDIAが構築した圧倒的なエコシステム、AWSの自社開発チップ「トレニウム2」やディスアグリゲート型アプローチの役割について深掘りします。
また、エネルギー効率やコスト効率に優れたインフラの重要性を検討し、AI技術の未来を支えるインフラ進化の展望を探ります。
NVIDIAの関連記事
NVIDIAの独占は続くのか?AIチップの未来を徹底解説
https://arpable.com/artificial-inteligence/the-cutting-edge-of-ai-processors/
NVIDIAのAI summit Japanから見える人工知能用チップの未来
https://arpable.com/artificial-inteligence/nvidia-ai-summit-japan/
インテルの転換点:筆者が見るAIチップ市場の激変
2024年12月、インテルのパット・ゲルシンガーCEOが退任しました。
彼はインテルの技術的優位性回復を目指し、半導体受託生産への参入など大胆な再建計画を進めましたが、AIチップ市場でのNVIDIAの圧倒的な強さに直面し、投資家の信頼を失う結果となりました。
この出来事は、AIインフラ業界の先行き予測がいかに難しいかを改めて示しています。
筆者としては、かつて日本のDRAM業界が斜陽化する中で、インテルが高付加価値製品であるCPUへ舵を切り、「インテル入っている」や「Wintel連合」と称された成功を思い起こさずにはいられません。
しかし現在、AIチップ市場という新たな競争領域で再び試練に直面している姿を見ると、テクノロジー業界の変化の速さと適応の難しさを痛感します。
インテルがこの転換点をどう乗り越えるかは、業界全体にとっても重要な指標となるでしょう。筆者としても、その動向を注視していきたいと思います。
AWSのレイニアから見る果敢な取り組み
筆者の視点から見て、AWSのプロジェクト・レイニアは、インテルの凋落とは対照的な、AIインフラ市場への果敢な挑戦を象徴してるように見えます。
2024年のAWS re:Inventで発表されたこのプロジェクトは、AWSが自社開発した最新のAIチップ、トレニウム2を中核としています。トレニウム2は、従来のGPUベースのソリューションと比較して30-40%のコスト削減を実現し、20.8 FP8 petaflop(※メモ参照)という驚異的な演算性能を持ちます。
特に注目すべきは、AWSの2軸戦略です。NVIDIAのGPUを大量に使用しつつ、自社チップ開発も進めるという approach は、市場の現状を認識しながらも、将来を見据えた戦略だと評価できます。さらに、Anthropicとの戦略的パートナーシップも興味深い動きです。80億ドルという大規模な投資は、AWSがAI市場に本気で取り組む姿勢を示しています。
筆者としては、AWSのこの果敢な取り組みが、NVIDIAが独占的な地位を築いてきたAIチップ市場に新たな競争をもたらし、AI開発の民主化を促進する可能性に大きな期待を寄せています。インテルの凋落を目の当たりにした今、AWSの挑戦がAIインフラ市場にどのような変革をもたらすか、今後も注視していきたいと思います。
FP8 petaflopは、AIの計算能力を表す指標です。「FP8」とは8ビットの浮動小数点数を指し、AIの学習や推論でよく使われる数値形式です。
この形式は低精度ですが、高速で効率的な演算が可能なため、大規模AIの計算に適しています。「petaflop」は1秒間に1,000兆回の演算を示し、20.8 FP8 petaflopは1秒間に約20,800兆回の計算ができる性能を意味します。
この能力は人間の脳の処理能力(約1 petaflop)の20倍以上に相当し、大規模なAIモデルを迅速に処理可能です。
AI技術の進化を支えるこの性能は、学習や推論のコスト削減と高速化に大きく貢献します。
各社のAIチップ開発状況
2024年12月現在、筆者が調査した結果、AWS以外に主要テクノロジー企業のAIチップ開発状況は以下の通りでしたので共有します。
OpenAI
- 2023年11月、2026年の製造を目指すと発表
- 特徴:高速処理、省エネ性能向上を目指す
- 用途:AIモデルの推論(インファレンス)に焦点
- NVIDIAとの関係:現在もNVIDIA GPUに依存、BroadcomとTSMCと協力して独自チップ開発中
Microsoft
- 2024年8月27日にMaia 100の詳細を発表
- 特徴:Azure Maia AI Accelerator、TSMC N5プロセス、HBM2Eメモリ採用
- 用途:大規模AIワークロード、Azure OpenAI Services
- NVIDIAとの関係:2024年に約48.5万個のNVIDIA Hopperチップを購入
- 2024年にTPU v5pとAxionチップを発表
- 特徴:TPU v5pを一般提供開始、Axionチップを発表
- 用途:AIモデルのトレーニングと推論
- NVIDIAとの関係:2025年初頭にNVIDIAのGrace Blackwellプラットフォームを導入予定
Meta
- 2024年4月10日に次世代MTIAチップを発表
- 特徴:5nmプロセス、90W TDP、1.35 GHzクロック速度
- 用途:ランキングおよびレコメンデーションシステム、AIモデルの実行
- NVIDIAとの関係:NVIDIA GPUも使用、具体的な投資額は不明
AMD
- 2024年第4四半期にInstinct MI325Xを発表
- 特徴:Instinct MI325X、288GBのHBM3Eメモリ
- 用途:AIモデルトレーニング、推論
- NVIDIAとの関係:AIチップ市場で競合
Intel
- 2024年6月4日にXeon 6 6700Eを発表、第3四半期にXeon 6 P-coresを発表
- 特徴:最大144 E-cores搭載、データセンター向けAIワークロード最適化
- 用途:AIモデルトレーニング、推論
- NVIDIAとの関係:NVIDIA GPUと競合、コスト効率の高い代替品を提供目指す
各社は独自のAIチップ開発を進めており、NVIDIAの市場支配に挑戦する姿勢を見せています。しかし、多くの企業が依然としてNVIDIA製品に依存しており、完全な脱却には時間がかかると予想されます。
巨人NVIDIAへの挑戦:AIインフラ革命の行方
皆さんもご存じのように、NVIDIAはAIチップ市場で圧倒的な強さを誇っています。
Mizuho Securitiesの推定によると、NVIDIAのAIアクセラレータは人工知能チップ市場の70%から95%のシェアを占めています。
2023年のデータセンターAIチップ市場全体は177億ドルで、NVIDIAが65%のシェアを占めました。
一方、AIチップ市場の競争は激化しています。現在でも多くのTechジャイアントやスタートアップ企業が独自のAIアクセラレータを開発しています。
また、AmazonやGoogleなどの主要クラウドプロバイダーも自社チップの開発を進めています。そうなるとNVIDIAの勢いは失速していくのでしょうか?
筆者の見解では、NVIDIAは現在の優位性を維持しつつも、競争の激化により市場シェアの一部を失う可能性があります。しかし、AIチップ市場全体の急速な成長により、NVIDIAの収益は引き続き拡大すると予想されます。
NVIDIAの強さの背景には、以下の3つの要因があると考えられます。
❶ CUDAエコシステム
CUDAは、GPUを使った高速計算のための標準的な開発環境です。多くのプログラミング言語に対応し、約250の便利なツールを提供しています。これにより、開発者はAI用の高性能なアプリケーションを簡単に作れます。CUDAは長年進化を続け、業界で広く使われています。
❷ フルスタックAIプラットフォーム
NVIDIA AI Enterpriseは、AI開発に必要なすべてのツールをまとめて提供するシステムです。100以上の開発フレームワークや学習済みモデルを含み、データ処理を5倍速くします。大規模なAIモデルやリアルタイムAIアプリの開発も可能で、企業のAI開発コストを大幅に削減できます。
❸ ディスアグリゲート戦略
DxPU(※メモ参照)は、GPUリソースを柔軟に管理・割り当てする新しい方法です。大規模なデータセンターでGPUを効率的に使え、必要に応じて動的に割り当てられます。CPUとGPUを別々に管理できるので、コストを抑えつつAIの処理需要の変動に柔軟に対応できます。
AIチップ市場は今後5年間で年間4000億ドルの売上に達すると予測されており、この成長の中でNVIDIAがどのように優位性を維持し、他社がどのように追随していくのか、AIインフラ革命の行方に注目が集まります。
DxPU (Disaggregated GPU Pool) は、データセンター規模でのGPU分散化を実現する新しい実装方式です。DxPUは以下のような特徴を持っています:
- GPUリソースのプール化: GPUをプールとして管理し、ユーザーの需要に応じて動的に割り当てることができます。
- 大規模な管理能力: 数百のGPUノードを効率的に管理することが可能です。
- 高いパフォーマンス: ほとんどのユースケースで、ネイティブGPUサーバーの90%以上のパフォーマンスを実現します。
- 柔軟性: ユーザーの要求に応じて、必要な数のGPUノードを柔軟に割り当てることができます。
- リソース利用効率の向上: GPUの使用率を最適化し、データセンターのリソース効率を高めます。
DxPUは、従来のGPU分散システムの問題点を効率的に解決し、AIワークロードの多様性と変動性に柔軟に対応することができます。これにより、大規模なAIモデルの学習や推論、複雑な科学計算などの高度なコンピューティング環境において、効率的で持続可能なインフラストラクチャの構築を可能にします。
業界の複雑な関係性
AIインフラ業界は、競争と協力が入り混じる複雑な関係性で成り立っています。
NVIDIAは圧倒的な市場シェアを持ちながら、AWSやGoogleなどのクラウドプロバイダーと協力関係を築いています。
一方で、これらの企業は独自のAIチップ開発を進め、NVIDIAへの依存度低減を図っています。また、TSMCやBroadcomなどの半導体企業も、AIチップ開発において重要な役割を果たしています。この複雑な関係性は、技術革新と市場競争を促進する一方で、特定企業への過度の依存リスクも生み出しています。
AIインフラ市場の現状と展望
AIインフラ市場は急速に拡大しており、2024年の市場規模は684億6,000万米ドルと推定されています。
2029年までに年平均成長率20.12%で成長し、1,712億1,000万米ドルに達すると予測されています。
この成長を牽引するのは、大規模言語モデルや生成AIの普及、エッジAIの発展、そしてAIの産業応用の拡大です。
特に注目されるのは、ディスアグリゲート型アプローチの採用拡大と、エネルギー効率の高いAIインフラへの需要増加です。これらのトレンドは、市場構造を大きく変える可能性を秘めています。
結論
AIインフラ市場は、技術革新と競争の激しい領域です。
NVIDIAの優位性は当面続くと予想されますが、AWSをはじめとする企業の独自チップ開発やディスアグリゲート型アプローチの台頭により、市場構造は徐々に変化していくでしょう。
今後は、エネルギー効率や柔軟性、コスト効率性がより重視され、これらの要素に優れたソリューションを提供できる企業が競争優位性を獲得すると考えられます。
AIインフラの進化は、AI技術の更なる発展と普及を支える重要な基盤となるでしょう。
以上
ケニー狩野( 中小企業診断士、PMP、ITコーディネータ)
キヤノン(株)でアーキテクト、プロマネとして多数のプロジェクトをリード。
現在、株式会社ベーネテック代表、株式会社アープ取締役、Society 5.0振興協会評議員ブロックチェーン導入評価委員長。
これまでの知見を活かしブロックチェーンや人工知能技術の推進に従事。趣味はダイビングと囲碁。2018年「リアル・イノベーション・マインド」を出版。