この記事で分かること
- HBFとは:サンディスクが開発中の広帯域フラッシュメモリです。AIのデータ処理速度を向上させるため、NANDフラッシュメモリを積層し、従来のDRAMベースのHBM(High Bandwidth Memory)よりも大容量で低コストでの提供を目指しています。
- フラッシュメモリを使用するメリット:広帯域フラッシュにフラッシュメモリを使う利点は、大容量と低コストです。従来のDRAMより安価なフラッシュメモリを用いることで、AIモデルに必要な巨大な容量を、経済的に提供できるのが最大のメリットです。
- HBFの課題:DRAMより高いレイテンシ(遅延)と、書き込み回数に制限があることです。特にAI学習のように頻繁な書き込みが発生する用途では、メモリの耐久性が問題となる可能性があります。
サンディスクの広帯域フラッシュ(HBF)開発
サンディスクは、AI分野でのメモリ需要増大に対応するため、広帯域フラッシュ(HBF)という新しいメモリ技術を開発しています。
https://prtimes.jp/main/html/rd/p/000000167.000041736.html
HBFは、従来のDRAMベースの広帯域メモリ(HBM)に比べて、より大容量で低コストでの提供を目指していますが実現は難しいのではという報道もなされています。
https://eetimes.itmedia.co.jp/ee/articles/2508/08/news028.html
HBFとは何か
HBF(High Bandwidth Flash)は、サンディスクが開発中の新しいメモリ技術で、AIコンピューティング、特に推論ワークロードにおけるメモリの制約を打破するために設計されています。
従来のHBM(High Bandwidth Memory)がDRAMをベースにしているのに対し、HBFはNANDフラッシュメモリをベースにしています。この違いにより、HBMに匹敵する高速なデータ転送速度を維持しつつ、より大容量かつ低コストで提供できることを目指しています。
技術的特徴と目的
HBFは、GPUとメモリ間のデータ転送速度を高速化し、AIの「メモリウォール」問題に対処します。主な特徴と目的は以下の通りです。
- 大容量化: HBMの8〜16倍の容量を、同等のコストで提供することを目指しています。
- 低コスト化: NANDフラッシュメモリを基盤としているため、DRAMベースのHBMよりも製造コストを抑えることができます。
- AI推論への最適化: 特に、学習済みAIモデルを使って予測を行う推論タスクに焦点を当てています。これにより、データセンターだけでなく、エッジデバイスでの複雑なモデルのローカル実行を可能にします。
今後の展望
サンディスクは、HBFを業界標準のメモリにすることを目指し、SK hynixなどの競合企業と協力して仕様策定を進めています。最初のHBFメモリのサンプル出荷は2026年下半期、HBFを搭載したAI推論デバイスのサンプルは2027年初頭に提供される予定です。

HBF(High Bandwidth Flash)は、サンディスクが開発中の広帯域フラッシュメモリです。AIのデータ処理速度を向上させるため、NANDフラッシュメモリを積層し、従来のDRAMベースのHBM(High Bandwidth Memory)よりも大容量で低コストでの提供を目指しています。AI推論ワークロードに最適化されています。
メモリウォールとは何か
メモリウォール(memory wall)とは、コンピュータのプロセッサ(CPUやGPU)の処理速度と、メモリのデータ転送速度との間に存在する性能のギャップが広がり、システム全体のパフォーマンスのボトルネックとなる問題を指します。
問題のメカニズム
CPUやGPUの性能は、ムーアの法則に従い飛躍的に向上してきました。しかし、それに比べてメモリ(特にDRAM)のデータ転送速度は緩やかにしか向上していません。
この速度差が大きくなるにつれて、プロセッサが演算に必要なデータをメモリから受け取るまでの待ち時間が長くなり、プロセッサが本来の性能を十分に発揮できなくなります。これが「メモリウォール」と呼ばれる由縁です。
AI時代における深刻化
近年、AIモデルの巨大化により、この問題はさらに深刻化しています。大規模言語モデル(LLM)のようなAIモデルは、膨大な数のパラメータをメモリにロードし、頻繁にアクセスする必要があります。このため、メモリウォール問題がAIの学習や推論のボトルネックとなり、システム全体の処理効率を大きく低下させています。
解決策
この問題に対処するため、以下のような技術が開発されています。
- HBF(High Bandwidth Flash): NANDフラッシュを積層し、HBMよりも大容量で低コストな広帯域メモリを目指す新しい技術。
- 広帯域メモリ(HBM): 複数のDRAMチップを積み重ねて、データ転送速度を大幅に向上させる技術。
- ハイブリッドメモリキューブ(HMC): 3D積層技術を活用した高速メモリ。
- ニアメモリソリューション: メモリをプロセッサの近くに配置し、データ転送距離を短縮することで、レイテンシ(遅延)を削減する技術。

メモリウォールとは、プロセッサ(CPU/GPU)の処理速度向上に対し、メモリのデータ転送速度が追いつかず、性能差が拡大することでシステム全体のボトルネックとなる問題です。これにより、プロセッサがメモリからのデータ待ちで遊んでしまう状況が発生します。
フラッシュメモリが安価な理由は
フラッシュメモリ、特に主流のNAND型フラッシュメモリが安価な理由は、主にその構造と製造方法にあります。
大量生産に適した構造
フラッシュメモリは、1つのメモリセル(データを記録する最小単位)に複数のビットを記録できる「多値化」という技術を採用しています。これにより、同じ面積のシリコンウェハからより多くのデータを記録できるようになり、製造コストを大幅に削減できます。
また、NAND型フラッシュメモリは、メモリセルを直列に接続することで、配線が少なくなり、高集積化に適した構造をしています。この構造は、微細化と積層化を容易にし、単位面積あたりの容量を劇的に増やすことができます。
製造コストと市場動向
NANDフラッシュメモリは、技術の進歩によって製造プロセスが成熟し、歩留まりが向上しました。さらに、世界中の大手半導体メーカーが大規模な設備投資を行い、熾烈な価格競争を繰り広げていることも、価格を下げる大きな要因となっています。需要と供給のバランスが崩れ、供給過剰になった際には、価格がさらに下落することもあります。
こうした技術的および市場的な要因が組み合わさり、フラッシュメモリはHDDやDRAMと比較して、非常に安価な価格で大容量を提供できるのです。

フラッシュメモリが安価な理由は、製造技術と構造にあります。1つのセルに複数ビットを記録する「多値化」と、高密度化に適した直列構造により、同じ面積から大容量化が可能となり、製造コストを大幅に削減できるためです。
HBFの課題は何か
HBF(High Bandwidth Flash)は、AI時代のメモリ壁問題の解決策として期待されていますが、いくつかの技術的・商業的な課題も抱えています。
技術的な課題
1. 書き込み回数と耐久性
フラッシュメモリは、DRAMと異なり、データを書き換えるたびにセルが劣化するという書き込み回数制限があります。
- AIトレーニング vs. 推論: HBFは主にAI推論に焦点を当てており、推論は読み出しが中心であるため、この問題は学習(トレーニング)に比べると顕在化しにくいとされています。しかし、モデルの更新やファインチューニングなどの書き込みが必要な用途では、耐久性が課題となる可能性があります。
- 解決策: サンプル出荷を予定しているHBFは、耐久性を高める技術(例: pSLC NAND)の採用や、書き込みを最小限に抑える設計が施されると考えられますが、長期的な信頼性は実証が必要です。
2. レイテンシ(遅延)
フラッシュメモリは、DRAMに比べてアクセスレイテンシが大きいという特性があります。アクセスレイテンシとは、プロセッサがメモリやストレージにデータを要求してから、実際にデータが届くまでの待ち時間のことです。この時間が短いほど、データ転送が速いことを意味し、システム全体のパフォーマンスに直結します。
- HBMとの比較: HBMはDRAMベースであるため、非常に低いレイテンシを実現しています。HBFはNANDベースであるため、HBMと同等の帯域幅(bandwidth)を実現できても、レイテンシ(latency)では劣る可能性があります。
- 影響: レイテンシの差は、リアルタイム性が求められるアプリケーションや、頻繁に小さなデータにアクセスするワークロードにおいて、性能に影響を与える可能性があります。
3. 複雑なアドレス管理
フラッシュメモリは、データが記録されている物理的な場所を管理する「ブロック」と「ページ」という単位で動作します。この複雑な管理が、プロセッサが直接メモリにアクセスする際のボトルネックになる可能性があります。
商業的な課題
1. エコシステムの構築
HBFが普及するためには、メモリメーカーだけでなく、GPUメーカーやシステムインテグレーターなど、業界全体での協力が必要です。サンディスクは、SK hynixと提携して仕様の標準化を進めていますが、広範なエコシステムを確立できるかどうかが成功の鍵となります。
2. HBMとの差別化
HBFはHBMの「代替」ではなく、HBMを「補完」する技術として位置づけられる可能性があります。HBFは主に大容量メモリを必要とするAI推論に強みを持つ一方、HBMは高速な演算を必要とするAI学習などの用途で引き続き重要となるでしょう。HBFがニッチな市場に留まらず、幅広い用途でHBMと共存、または一部を置き換えることができるかどうかが課題となります。

HBFの主な課題は、DRAMより高いレイテンシ(遅延)と、書き込み回数に制限があることです。特にAI学習のように頻繁な書き込みが発生する用途では、メモリの耐久性が問題となる可能性があります。
コメント