この記事で分かること
- なぜ大幅な需要増加となるのか:生成AIモデルの巨大化に伴い、数千億のパラメータを保持する膨大メモリ容量が必要となりました。また、演算装置(GPU)の進化に対し、データ転送速度が追いつかない「メモリの壁」を打破するため、高速な専用メモリへの需要が爆発しています。
- なぜ265倍なのか:GPU単体のメモリ容量が2028年までに約25倍へ大容量化し、さらにデータセンターへ導入されるGPUの総数も約25倍に拡大すると予測されています。この「容量×台数」の相乗効果により、総需要が625倍に激増する計算です。
- 各社のHBM増産状況:首位のSKハイニックスは韓国・米国で新工場建設を加速。サムスン電子は生産能力を前年比3倍近くに引き上げる強気な投資を継続しています。マイクロンも2025年分が完売するなど、3社とも既存ラインの転換と新拠点整備による大増産体制を敷いています。
AIメモリの需要が従来の625倍への急増
デルCEOがAIメモリ需要は生成AIの普及で従来の625倍に激増し、数年に及ぶ深刻な供給不足が懸念されると警鐘を鳴らしています。
特にHBM(広帯域メモリ)の不足が顕著で、データセンターや半導体供給網への影響が長期化する見通しです。
なぜAIメモリ需要がここまで増加するのか
AIメモリの需要が爆発的に増加している主な理由は、AIモデルの巨大化と、処理速度を維持するための「データ転送のボトルネック」解消にあります。主な要因は以下の3点です。
1. モデルの大規模化(パラメータ数の増大)
ChatGPTなどの生成AIは、数千億から数兆もの「パラメータ」で構成されています。これらを動かすには、モデル全体をメモリ上に展開する必要があり、単純な計算量の増加以上に、物理的なメモリ容量が大量に要求されます。
2. 計算速度に対する「帯域幅」の不足
現代のGPU(演算装置)は非常に高速ですが、メモリからデータを読み出すスピード(帯域幅)が追いつかない「メモリの壁」に直面しています。
AI学習では膨大なデータを一瞬でやり取りする必要があるため、通常のメモリ(DDR5など)ではなく、より高速で高価なHBM(高帯域幅メモリ)が不可欠となっています。
3. 学習から「推論」フェーズへの移行
これまではAIを作る「学習」が中心でしたが、現在は世界中でAIを使う「推論」の需要が急増しています。24時間稼働するデータセンターにおいて、膨大なリクエストを遅延なく処理するために、1基あたりのサーバーに搭載されるメモリ容量が底上げされています。

AIモデルの巨大化により、膨大なパラメータを保持する容量と、演算速度に見合う超高速なデータ転送能力(帯域幅)が不可欠となりました。特にHBMの需要が激増しており、供給が追いつかない状況が続いています。
HBMはなぜデータの読み込みが早いのか
HBM(High Bandwidth Memory:高帯域幅メモリ)が従来のメモリ(DDRなど)より圧倒的に速い理由は、道路の数(バス幅)を極限まで増やし、データが通る距離を最短にした構造にあります。
主に以下の3つの技術的特徴がスピードの源泉です。
1. 「道幅」の圧倒的な広さ(ワイドI/O)
従来のDDRメモリが1個あたり64ビットの道幅(バス幅)を持つのに対し、HBMは1024ビットという非常に広い道幅を持っています。1回に送れるデータの束が圧倒的に多いため、低いクロック周波数でも巨大なスループットを実現できます。
2. TSV(シリコン貫通電極)による垂直接続
HBMはメモリチップを垂直に積み上げ、TSV(Through-Silicon Via)という無数の細かい電極で上下を貫通させて接続しています。従来のワイヤボンディング(針金での接続)に比べて配線が劇的に短くなり、電気信号の遅延を最小限に抑えています。
3. プロセッサとの「超至近距離」配置
通常のメモリはマザーボード上の離れた場所に配置されますが、HBMはインターポーザーと呼ばれる中間基板を使い、GPUやCPUと同じパッケージ内に「隣り合わせ」で封入されます。物理的な距離が数ミリ単位まで短縮されることで、超高速な通信が可能になります。

HBMはメモリを垂直に積み上げ、TSV(貫通電極)で直結する構造を採用しています。データが通る「道幅」を従来の16倍以上に広げ、演算装置のすぐ隣に配置することで、超高速なデータ転送を実現しています。
供給不足はどのような状況を招くのか
メモリ(特にHBM)の供給不足が続くと、AI開発の停滞からエンドユーザーの利用コストまで、多方面にわたる負の連鎖を引き起こします。主な影響は以下の4点に集約されます。
1. AIサーバーの納期長期化とコスト増
高性能なGPU(NVIDIA製など)はHBMとセットで製造されるため、メモリが足りないとサーバー自体が完成しません。これにより、データセンター事業者の設備投資コストが跳ね上がり、AIサーバーの納期が1年以上に及ぶような「深刻な待ち」が発生します。
2. 開発競争の格差拡大
潤沢な資金を持つ大手テック企業(メガスケール・プロバイダー)がメモリを買い占める一方で、スタートアップや研究機関が最新のハードウェアを入手できなくなります。これが「AI格差」を生み、イノベーションの鈍化を招くリスクがあります。
3. クラウド利用料金への転嫁
データセンターの構築コストが増大すれば、最終的にOpenAIやGoogleなどが提供するAIサービスの利用料金(API利用料やサブスク料金)に跳ね返ります。一般ユーザーや企業にとって、AI導入のハードルが高まる可能性があります。
4. 既存メモリ(DDR5等)への波及
メモリメーカーが利益率の高いHBMの生産を優先するため、通常のPCやスマートフォンに使われる汎用メモリ(DDR5など)の生産ラインが削られます。その結果、AIとは直接関係のない電子機器全体の価格高騰を招く「連鎖的な物価上昇」が懸念されます。

メモリ不足はAIサーバーの納期遅延と価格高騰を招き、資金力によるAI開発格差を広げます。また、メーカーがHBM生産を優先することで、PC用などの汎用メモリも品薄となり、電子機器全般の値上げに繋がります。
主なメモリ半導体メーカーとそれぞれの増産の状況はどうか
HBM(高帯域幅メモリ)の主要メーカーは、韓国のSKハイニックス、サムスン電子、そして米国のマイクロン・テクノロジーの3社で市場を独占しています。各社の増産状況と戦略は以下の通りです。
1. SKハイニックス(市場シェア首位)
NVIDIAへの主要サプライヤーとして先行しており、現在最も勢いがあります。
- 増産状況: 韓国の清州(チョンジュ)に新工場「M15X」を建設中で、HBMの生産能力を大幅に拡張しています。また、米インディアナ州にも高度なパッケージング工場の建設を決定し、供給網を強化しています。
- 技術: 次世代のHBM3EからHBM4への移行を急いでいます。
2. サムスン電子(猛追する巨人)
生産キャパシティ(規模)で他社を圧倒しようとしています。
- 増産状況: 2024年から2025年にかけて、HBMの供給能力を前年比で2.5倍〜3倍に引き上げる強気な計画を進めています。既存のDRAMラインをHBM用に転換し、物量で攻勢をかけています。
- 技術: HBM3E 12段積みの量産に加え、カスタマイズ可能なHBM4の開発に注力しています。
3. マイクロン・テクノロジー(米国の雄)
シェアは3位ですが、高い電力効率を武器に存在感を高めています。
- 増産状況: 2025年分までのHBM予約が既に完売している状況で、広島工場や台湾拠点での生産拡大を検討・実施しています。
- 技術: 消費電力が他社より低いとされるHBM3Eを投入し、データセンターの省エネ需要を取り込んでいます。

SKハイニックスが先行し新工場建設を加速する一方、サムスンは供給能力を3倍近くに引き上げ猛追しています。マイクロンも予約完売が続く好況で、3社とも既存ラインの転換や新拠点整備による大増産体制を敷いています。

コメント