この記事で分かること
- 利益減少の理由:半導体市場の低迷に加え、AIメモリ(HBM)の供給遅れと競争激化、そして米国の半導体規制が複合的に影響したためです。
- HBMとは:HBM(High Bandwidth Memory)は、複数のDRAMチップを垂直に積み重ね、シリコン貫通電極で接続する次世代メモリです。これにより、従来のメモリに比べ圧倒的に広い帯域幅(高速データ転送)を実現し、AIや高性能コンピューティングのデータ処理を飛躍的に高速化します。
- HBMのシェアの高いメーカー:現時点ではSKハイニックスがHBM市場のリーダーとしての地位を確立しています。
サムスン電子の営業利益減少
サムスン電子が2025年第2四半期(4~6月期)の営業利益が約4900億円となり、前年同期比で56%減少すると発表したというニュースが報じられています。
https://news.yahoo.co.jp/articles/0216a677732f0726460ff04b5dfe49302ecabb72
今回の発表は、依然として半導体市場の回復が鈍いこと、および新たな技術分野への対応の遅れが、同社の収益を圧迫していることを示唆しています。
減益の理由は何か
サムスン電子の2025年第2四半期(4~6月期)における営業利益が56%減少した主な理由は、以下の複合的な要因によるものです。
半導体市場の低迷(チップスランプ)
- 世界的な半導体需要の低迷が続いており、特にDRAMやNANDフラッシュといったメモリ半導体製品の価格が下落していることが、サムスン電子の半導体事業の収益を大きく圧迫しています。
- 過去にも2023年には90%以上の営業利益減を経験するなど、半導体市況の変動がサムスン電子の業績に直結する傾向があります。
AIメモリー(HBM)の供給遅延・競争激化
- AI(人工知能)技術の発展に伴い、高性能なHBM(High Bandwidth Memory)の需要が急増していますが、サムスン電子はHBM市場において、SKハイニックスなどの競合他社に比べて開発や供給が遅れていると報じられています。
- 特に、AIチップの最大手であるNVIDIAへのHBM供給計画において問題が生じていることが、減益の一因として挙げられています。HBMはAIアクセラレーターに不可欠な部品であり、この分野での出遅れは大きな機会損失となります。
米国の半導体規制
- 米国が中国に対して実施しているAI半導体関連の輸出規制が、サムスン電子のビジネスに影響を与えている可能性も指摘されています。中国市場はサムスン電子にとって重要な市場の一つであり、規制の影響で事業展開が難しくなっている側面があるかもしれません。
これらの要因が重なり、サムスン電子は厳しい事業環境に置かれていると考えられます。同社は半導体市場の回復を待つとともに、特にAIメモリ分野での競争力強化が急務となっています。

サムスン電子の減益は、半導体市場の低迷に加え、AIメモリ(HBM)の供給遅れと競争激化、そして米国の半導体規制が複合的に影響したためです。
HBM:High Bandwidth Memoryとは何か
HBM(High Bandwidth Memory)は、「広帯域幅メモリ」という意味で、特にAI(人工知能)や高性能コンピューティング(HPC)、グラフィックス処理などの分野で大量のデータを高速に処理するために開発された、次世代のDRAM(Dynamic Random Access Memory)技術・規格です。
従来のDRAMとは異なり、以下の特徴を持ちます。
- 3D積層構造(3D Stacking): 複数のDRAMチップを垂直に積み重ねることで、限られた面積で大容量を実現します。これにより、物理的なスペースを効率的に活用できます。
- シリコン貫通電極(TSV: Through Silicon Via): 積層されたDRAMチップは、シリコンを貫通する微細な電極(TSV)によって直接接続されます。これにより、チップ間のデータ転送距離が極めて短くなり、高速化と低消費電力化が実現されます。
- 広帯域幅インターフェース: 非常に広いインターフェース(バス幅)を持つことで、一度に大量のデータを並行して転送できます。これにより、従来のDRAMに比べて圧倒的に高いデータ転送速度(帯域幅)を実現します。
- インターポーザ経由の接続: HBMは、GPU(画像処理装置)やCPU(中央演算処理装置)といったホストプロセッサと、インターポーザと呼ばれる中間基板を介して接続されます。これにより、高速かつ安定したデータ転送が可能です。
なぜHBMが重要なのか?
AIやHPCの分野では、GPUが膨大なデータを高速に処理する必要があります。従来のDRAMでは、GPUとメモリ間のデータ転送速度がボトルネックとなり、GPUの性能を最大限に引き出すことができませんでした。HBMは、このメモリボトルネックを解消し、GPUがより効率的に動作することを可能にします。
主な用途
- AI/機械学習: AIモデルのトレーニングや推論において、大量のデータセットを高速に処理するため。
- 高性能コンピューティング(HPC): 科学計算、シミュレーション、気象予測など、膨大なデータを扱う分野。
- グラフィックス処理(GPU): ゲームや映像制作、VR/ARなどで高解像度の画像をリアルタイムでレンダリングするため。
- データセンター/クラウドコンピューティング: 大量のデータを高速処理し、リアルタイムサービスを提供するため。
HBMは、高帯域幅と省電力性を両立させることで、現代のデータ集約型アプリケーションにおいて不可欠な技術となっています。

HBM(High Bandwidth Memory)は、複数のDRAMチップを垂直に積み重ね、シリコン貫通電極で接続する次世代メモリです。これにより、従来のメモリに比べ圧倒的に広い帯域幅(高速データ転送)を実現し、AIや高性能コンピューティングのデータ処理を飛躍的に高速化します。
なぜ開発が遅れているのか
サムスン電子がHBMの開発で遅れを取っている背景には、複数の要因が指摘されています。主な理由は以下の通りです。
過去の戦略判断ミス:
- サムスンは、かつてHBM市場がそれほど大きくならないと見込み、2019年にはHBM開発組織を縮小するなど、この分野への投資を控えめにしていました。DRAMの集積度を高めることで十分だと考えていたようです。
- 一方、SKハイニックスはHBMの潜在性を見抜き、継続的に投資を続けた結果、市場が急拡大した際にリードを確立しました。
技術的課題と品質問題:
- HBMは、複数のDRAMチップを垂直に積み重ね、微細なTSV(シリコン貫通電極)で接続する非常に高度な技術を要します。この製造プロセスは複雑で、歩留まり(良品率)の確保が極めて難しいとされています。
- 特に、AIチップの最大手であるNVIDIAのHBMテストにおいて、サムスン製のHBMが熱(発熱)と消費電力の基準を満たせなかったという報道があります。これは、HBMの性能だけでなく、長期的な信頼性や運用コストにも関わる重要な問題です。
- NVIDIAは、HBMの性能基準を厳しく設定しており、SKハイニックスやMicronがこの基準をクリアしている一方で、サムスンが苦戦している状況です。
組織文化の問題:
- 一部の報道では、サムスンの組織文化がHBM開発の遅れに影響を与えている可能性も指摘されています。失敗を恐れるあまり、新しい技術や困難な挑戦を避ける傾向が強まり、技術革新が滞っているという意見もあります。過去の経営判断が、現場の技術者にとって新たな挑戦を阻む要因になっているという見方もできます。
これらの複合的な要因が、サムスン電子がHBM市場でSKハイニックスやMicronといった競合に後れを取る原因となっていると考えられます。特に、NVIDIAのような主要顧客からの信頼獲得は、HBM市場での成功に不可欠であり、サムスンは品質と供給安定性の改善が急務となっています。

サムスン電子のHBM開発遅れは、過去の戦略判断ミスで投資を控え、製造歩留まりや品質(発熱・消費電力)の問題を抱えているためです。特に主要顧客NVIDIAの厳格な基準を満たせていない点が大きいとされます。
HBMで先行しているのはどのメーカーなのか
HBM市場で現在、明確に先行しているのはSKハイニックスです。SKハイニックスは、以下の点でリードを確立しています。
- 市場シェア: 複数の調査機関のデータや報道によると、HBM市場においてSKハイニックスがトップシェアを占めており、特にAI半導体の主要顧客であるNVIDIAへの供給において優位に立っています。2025年1~3月期のHBM市場シェアで70%強と報じられるほどです。
- 技術開発: 第4世代HBM3の開発に業界で初めて成功し、さらに次世代のHBM3Eでも先行して量産を開始しています。最近では、HBM4の開発においても台湾のTSMCと協業するなど、技術的優位性を保つための動きを積極的に行っています。
- NVIDIAとの関係: AI半導体市場で圧倒的なシェアを持つNVIDIAとの強固なパートナーシップが、SKハイニックスのHBMビジネスの成功に大きく貢献しています。
一方で、サムスン電子やアメリカのマイクロン・テクノロジーもHBM市場への参入とシェア拡大を目指しており、特にマイクロンはHBM3Eの量産に成功し、NVIDIAからの認証も受けるなど、追い上げを図っています。
しかし、現時点ではSKハイニックスがHBM市場のリーダーとしての地位を確立していると言えます。
コメント