この記事で分かること
1. 192GB SOCAMM2の主な特徴
LPDDR5Xベースのサーバー用メモリで、従来のRDIMM比で帯域幅が2倍以上、電力効率が75%向上しています。圧縮コネクタによる高速伝送と192GBの大容量を両立し、AIサーバーの処理能力を最大化します。
2. Vera Rubinへの最適化ポイント
Vera Rubinの圧倒的な演算能力に合わせ、広帯域なデータ供給でボトルネックを解消します。また、電力効率改善と低背な水平実装による冷却性能向上により、プラットフォーム全体の「速度・電力・熱」の課題を解決しています。
3. 低い消費電力の実現方法
モバイル向け低電力規格のLPDDR5Xをベースに駆動電圧を低減。さらに圧縮コネクタ(CAMM)の採用で基板間の信号経路を短縮し、伝送時の電力損失を最小化しました。低電圧化と接続構造の刷新により省電力化を実現しています。
SK hynix、次世代メモリモジュール量産開始
SK hynixは2026年4月20日、NVIDIAの次世代AIプラットフォーム「Vera Rubin」向けに最適化された、次世代メモリモジュール「192GB SOCAMM2(Small Outline Compression Attached Memory Module 2)」の量産開始を発表しました。
https://jp.investing.com/news/stock-market-news/article-1496267
今回の量産開始は、AIモデルの高度化に伴い増大するメモリー性能要求と、持続可能なデータセンター運用という相反するニーズに対する、同社の強力な回答と言えます。
192GB SOCAMM2の特徴は何か
SK hynixが量産を開始した192GB SOCAMM2は、次世代AIサーバー、特にNVIDIAの「Vera Rubin」プラットフォームの性能を最大限に引き出すために設計された革新的なメモリモジュールです。主な特徴は、以下の4つのポイントに集約されます。
1. 圧倒的なデータ転送速度(高帯域幅)
LPDDR5Xベースの技術をサーバー向けに最適化することで、従来のサーバー用メモリ(RDIMM)と比較して2倍以上の帯域幅を実現しています。
- AIの学習や推論において、データの「通り道」を大幅に広げることで、プロセッサの待ち時間を減らし、処理効率を劇的に向上させます。
2. 極めて低い消費電力
AIデータセンターの運用コストにおいて最大の課題である「電力消費」を劇的に抑制します。
- 従来のRDIMMと比較して、電力効率が75%以上向上しています。
- これにより、同じ電力枠内でより多くの演算リソースを稼働させることが可能になります。
3. 「LPCAMM2」規格の採用と大容量化
ノートPCなどで採用が始まっている「LPCAMM2」規格のコンセプトをサーバー級に引き上げています。
- 192GBという大容量: LPDDRベースでありながら、高密度実装技術によりサーバー用途に耐えうる192GBという大容量を1モジュールで実現しました。
- 省スペース設計: マザーボードに垂直に挿すRDIMMに対し、水平に装着する構造のため、サーバー内部のエアフロー(冷却効率)の改善にも寄与します。
4. 信頼性と接続性(圧縮コネクタ)
名称にある「CAMM(Compression Attached Memory Module)」の通り、圧縮コネクタを使用して基板と接続します。
- 従来のソケット式よりも信号距離を短縮できるため、高速伝送時のノイズを抑え、高い信号整合性を確保しています。
- これにより、モバイル用DRAMのスピードと、サーバーに求められる安定稼働を両立させています。
このSOCAMM2は、HBM(高帯域幅メモリ)が高価すぎる領域や、従来のDDR5では速度が足りない領域を埋める「AIサーバーの第3の選択肢」として、今後のインフラ設計に大きな影響を与えると見られています。

LPDDR5Xベースのサーバー用メモリで、従来のRDIMM比で帯域幅が2倍以上、電力効率が75%向上しています。圧縮コネクタによる高速伝送と192GBの大容量を両立し、AIサーバーの性能を最大化します。
どんな点でVera Rubinへ最適化したのか
192GB SOCAMM2がNVIDIAの次世代プラットフォーム「Vera Rubin」に最適化されている主なポイントは、以下の3点です。
1. 演算性能を支える「帯域幅」の同期
Vera Rubinは現行のBlackwellを大幅に上回る演算能力を持つため、メモリからのデータ供給が遅れる「メモリボトルネック」が最大の懸念です。
SOCAMM2はLPDDR5X技術の応用により、従来のサーバー用DDR5(RDIMM)の2倍以上の帯域幅を確保し、GPUの超高速演算にデータを絶え間なく供給できる設計になっています。
2. 電力密度の限界突破(省電力化)
Vera Rubinプラットフォームは消費電力と発熱が非常に大きいため、システム全体の電力効率改善が不可欠です。
SOCAMM2は電力効率を75%向上させており、メモリ側の消費電力を最小限に抑えることで、その分の電力をGPUの演算リソースへ回し、システム全体の性能を最大化させることに貢献しています。
3. 物理的な実装と冷却効率の最適化
AIサーバー内部は高密度化が進んでおり、冷却が困難になっています。SOCAMM2は基板に対して水平に装着する構造のため、従来の垂直型RDIMMに比べて高さが低く、サーバー内部のエアフローを遮りません。
これにより、Vera Rubinプラットフォーム全体の冷却効率を高め、熱による性能低下(サーマルスロットリング)を防ぐ物理的な最適化がなされています。
「速度」「電力」「熱」というAIサーバーの三大課題に対し、Vera Rubinの要求スペックに合わせて設計されたことが最大の最適化ポイントです。

Vera Rubinの圧倒的な演算能力に合わせ、従来の2倍以上の帯域幅でデータ供給の遅滞を防ぎます。また、電力効率を75%改善し、低背な水平実装により冷却効率も向上。「速度・電力・熱」の課題を解決しています。
低消費電力をどうやって実現したのか
192GB SOCAMM2が劇的な低消費電力を実現した背景には、主に素子自体の設計と実装構造の2つの技術的アプローチがあります。
1. モバイル向け低電力技術「LPDDR5X」の採用
最大の要因は、スマートフォンなどのモバイル端末向けに開発されたLPDDR5Xをベースにしている点です。
- 低電圧駆動: 従来のサーバー用メモリ(DDR5)が1.1V程度で動作するのに対し、LPDDR5Xは1.0V台(一部さらに低い電圧)で動作します。
- 動的電圧制御: 処理負荷に応じて電圧や周波数を細かく制御する機能が優れており、アイドル時の待機電力を大幅に削減しています。
2. 「圧縮コネクタ(CAMM)」による信号損失の低減
物理的な接続方式にCAMM(Compression Attached Memory Module)を採用したことが大きく寄与しています。
- 信号経路の短縮: 従来のソケット(挿入型)に比べ、基板とメモリ間の距離が圧倒的に短くなります。
- 低ノイズ・低電力伝送: 信号の劣化が少ないため、データを安定して送るために必要な電力を抑えることができ、結果として伝送効率が向上しています。
3. モジュール集約による効率化
192GBという大容量を1つのモジュールに高密度実装することで、複数のメモリチップを個別に制御する際に発生するオーバーヘッドを削減しています。
このように、もともと「バッテリー駆動」を前提に磨かれたモバイル技術を、最新の接続規格でサーバーに持ち込んだことが、電力効率75%向上という数字の裏付けとなっています。

モバイル向け低電力規格のLPDDR5Xをベースに、駆動電圧を低減しています。さらに圧縮コネクタ(CAMM)の採用で信号経路を短縮し、データ伝送時の電力損失を最小化。低電圧化と接続構造の両面から省電力化を実現しました。

コメント