この記事で分かること
- なぜ利益が増加したのか:生成AI需要の爆発により、HBMやDDR5などの高付加価値メモリの販売が急増しました。供給絞り込みによる市況回復でメモリ価格が上昇したほか、過去の在庫評価損が解消されたことが利益を大きく押し上げました。
- HBMが高利益な理由:特殊な積層構造やTSV技術により製造難易度が高く、歩留まりの低さが希少性を生んでいます。AIチップ向けの受注生産に近い形態で、通常のDRAMより数倍高いプレミアム価格で取引されるため、高利益率を維持しています。
サムスン電子の利益前年同期比約8.6倍
サムスン電子は営業利益が前年同期比で約8.6倍となる57.2兆ウォン(約6兆円)に達したと発表しました。
売上高も68%増の133兆ウォンとなり、ともに四半期ベースで過去最高を更新しています。
なぜ利益が大幅に増加したのか
サムスン電子の利益が前年比で、大幅な増加を記録した背景には、主に「AI半導体需要の爆発」と「メモリ市場の構造変化」という2つの大きな要因があります。
1. 生成AIブームに伴う高付加価値製品の躍進
最大の要因は、ChatGPTをはじめとする生成AIの普及により、AIサーバーに不可欠な次世代メモリの需要が急増したことです。
- HBM(高帯域幅メモリ)の供給拡大: 膨大なデータを高速で処理できるHBMは、従来のDRAMに比べて利益率が極めて高く、この分野での増産が収益を強力に牽引しました。
- DDR5・LPDDR5Xへの移行: AIサーバーや最新スマホ向けの最新規格メモリへの切り替えが進み、製品ミックスが改善したことで、1ユニットあたりの利益幅が大きく拡大しました。
2. メモリ価格の反発と在庫状況の改善
2023年まで続いた半導体不況を受け、サムスンを含む主要メーカーが実施した減産戦略がようやく実を結びました。
- 市況の回復: 供給を絞ったことで過剰在庫が解消され、DRAMやNAND型フラッシュメモリの市販価格が上昇に転じました。
- 在庫評価損の戻し入れ: 以前に計上していた在庫の含み損が、価格上昇に伴って利益として計上されたことも、数字上の利益を大きく押し上げる要因となりました。
3. スマートフォン・ファウンドリ事業の底堅さ
メモリ以外の部門でも、生成AI機能を搭載した「Galaxy S26」シリーズの好調な販売が収益を下支えしています。
また、ファウンドリ(受託製造)部門においても、2nm〜3nmの先端プロセスへの投資が徐々に顧客獲得に繋がり始めており、全社的な利益体質が強化されています。
「AI特需による高価格製品の独走」と「業界全体の需給バランス正常化による価格上昇」が重なったことが、今回の記録的な増益の正体と言えます。

AIサーバー向けのHBMやDDR5などの高付加価値メモリの需要が急増し、需給逼迫による販売価格の上昇が利益を押し上げました。在庫評価損の解消や生産能力の最適化、生成AI関連の投資拡大が主な要因です。
なぜHBMの利益率が高いのか
サムスン電子の利益が前年比で劇的なV字回復を遂げ、大幅な増加を記録した背景には、主に「AI半導体需要の爆発」と「メモリ市場の構造変化」という2つの大きな要因があります。
1. 生成AIブームに伴う高付加価値製品の躍進
最大の要因は、ChatGPTをはじめとする生成AIの普及により、AIサーバーに不可欠な次世代メモリの需要が急増したことです。
- HBM(高帯域幅メモリ)の供給拡大: 膨大なデータを高速で処理できるHBMは、従来のDRAMに比べて利益率が極めて高く、この分野での増産が収益を強力に牽引しました。
- DDR5・LPDDR5Xへの移行: AIサーバーや最新スマホ向けの最新規格メモリへの切り替えが進み、製品ミックスが改善したことで、1ユニットあたりの利益幅が大きく拡大しました。
2. メモリ価格の反発と在庫状況の改善
2023年まで続いた半導体不況を受け、サムスンを含む主要メーカーが実施した減産戦略がようやく実を結びました。
- 市況の回復: 供給を絞ったことで過剰在庫が解消され、DRAMやNAND型フラッシュメモリの市販価格が上昇に転じました。
- 在庫評価損の戻し入れ: 以前に計上していた在庫の含み損が、価格上昇に伴って利益として計上されたことも、数字上の利益を大きく押し上げる要因となりました。
3. スマートフォン・ファウンドリ事業の底堅さ
メモリ以外の部門でも、生成AI機能を搭載した「Galaxy S26」シリーズの好調な販売が収益を下支えしています。
また、ファウンドリ(受託製造)部門においても、2nm〜3nmの先端プロセスへの投資が徐々に顧客獲得に繋がり始めており、全社的な利益体質が強化されています。
「AI特需による高価格製品の独走」と「業界全体の需給バランス正常化による価格上昇」が重なったことが、今回の記録的な増益の正体と言えます。

複雑な積層構造やTSV技術により製造難易度が高く、歩留まりの低さが希少性を生んでいます。AIチップ向けの受注生産に近い形態で、通常のDRAMより数倍高いプレミアム価格で取引されるため、高利益率を維持しています。
AIサーバーにHBMが必要なのはなぜか
AIサーバーにHBM(高帯域幅メモリ)が不可欠な理由は、現代のAI処理において「計算速度に対してデータの転送速度が追いつかない」というボトルネック(メモリの壁)を解消するためです。
1. 「メモリの壁」の打破
AIの学習や推論には、数千億個ものパラメータを持つ巨大なデータを高速で処理する必要があります。NVIDIAのGPUなどの演算装置(プロセッサ)は劇的に進化し、超高速で計算できるようになりましたが、従来のDRAM(DDR5など)では、計算に必要なデータをプロセッサに送り届けるスピード(帯域幅)が遅すぎました。
この速度差により、プロセッサがデータの到着を待つ「待ち時間」が発生し、システム全体の性能が低下してしまいます。HBMはこの「メモリの壁」を突き破るために開発されました。
2. 圧倒的な広帯域(データの通り道の広さ)
HBMは、複数のDRAMチップを垂直に積み上げ、数千本の微細な配線(TSV:シリコン貫通電極)で結合しています。
- 配線数の違い: 従来のメモリが数十本の「細い道路」でデータを運ぶのに対し、HBMは数千本の「巨大な高速道路」でデータを運びます。
- 近接配置: HBMはプロセッサと同じパッケージ内に極めて近く配置されるため、通信ロスが少なく、圧倒的なスピードで膨大なデータを演算回路へ流し込むことが可能です。
3. 省電力性と省スペース化
AIサーバーは大量の電力を消費し、熱対策が大きな課題です。HBMは垂直積層構造をとることで、従来のメモリよりも設置面積を大幅に削減できます。また、データの転送効率が高いため、同じ量のデータを運ぶ際の消費電力を抑えられるというメリットもあります。
生成AIの進化により、取り扱うデータ量は爆発的に増加しています。「プロセッサの超高速演算」を無駄にせず、その能力を100%引き出すための専用給水ポンプのような役割を果たすのがHBMであり、これなしでは現代の高性能なAIサーバーは成立しないと言っても過言ではありません。

HBMはチップを垂直に積み上げ、数千本の配線で直結することで、従来のDRAMより圧倒的に広い帯域幅(データの通り道)を確保しています。これにより、生成AIの膨大な学習データを遅延なく演算装置へ送り込めるようになります。

コメント