AMDのサーバー向けCPU好調

この記事で分かること

1. 好調だった製品

AIアクセラレータ「Instinct MI400」シリーズが爆発的に成長し、第5世代「EPYC」サーバーCPUも市場シェアを拡大。さらに「Ryzen 9000」シリーズがAI PC需要を捉えるなど、AI関連製品が全方位で業績を牽引しました。

2. サーバーCPUとは

データセンターや企業の基幹システム向けに設計されたプロセッサです。24時間稼働を前提とした高い信頼性、100を超える多コアによる並列処理能力、数TBもの巨大メモリへの対応が一般的なPC用と大きく異なります。

3. サーバーCPU好調の理由

AIの活用が「学習」から「推論」へ移り、高い演算能力を持つCPU需要が増したためです。AMD製品は競合より電力効率とコア数で勝り、サーバーを集約して電気代や設置コストを抑えたい企業の需要を独占しています。

AMDのサーバー向けCPU好調

 AMDが2026年5月5日に発表した2026年度第1四半期(1-3月期)決算は「AIシフトの成功」を象徴する驚異的な内容でした。

米AMD、第2四半期売上高見通しが予想超え AIでCPU需要好調
米半導体大手アドバンスト・マイクロ・デバイセズ(AMD)が5日発表した第2・四半期の​売上高見通しは市場予想を上回った。‌クラウドコンピューティング企業が人工知能(AI)インフラへの投資を加速する中、データセ​ンター向けの半導体需要が好調に...

 売上高は前年同期比38%増の102億5,300万ドルに達し、自社ガイダンスの上限(約101億ドル)をも上回る過去最高を記録しています。特にデータセンター部門の売上高は58億ドル(前年同期比57%増)に達し、全売上の半分以上を占める主役となっています。

どんな製品が好調だったのか

 2026年度第1四半期の記録的な業績を支えたのは、主に以下の3つの製品カテゴリーです。特にAIインフラへの投資加速が、AMDの製品ポートフォリオと見事に合致した形となっています。

1. Instinct MI400シリーズ(AIアクセラレータ)

 今回の決算で最も成長を牽引した「主役」です。

  • MI450 / MI400アーキテクチャ: 前世代のMI300シリーズを上回るスピードで導入が進んでいます。特に、広帯域メモリ(HBM3e/HBM4)を高度に統合したチップレット技術と、先進的なパッケージングが評価され、大規模言語モデル(LLM)の推論用としてクラウドプロバイダーから大量受注を獲得しました。
  • ソフトウェアエコシステム: オープンなソフトウェアプラットフォーム「ROCm」の改善が進み、NVIDIAのCUDAからの移行コストが下がったことも、エンタープライズ市場での採用を後押ししました。

2. 第5世代EPYCプロセッサ(サーバーCPU)

 データセンター向けCPU市場において、競合を上回るシェア拡大を続けています。

  • 高密度・高効率: 最新の「Zen 5」コアを採用した第5世代EPYC(コードネーム:Turin)が好調です。1チップあたりのコア数が増加し、電力効率が劇的に向上したことで、TCO(総保有コスト)を重視するデータセンター事業者の主要な選択肢となりました。
  • AIサーバーのベース: AIアクセラレータを搭載するサーバーの「ホストCPU」としてもEPYCが選ばれており、GPUとのセット販売が売上を押し上げています。

3. Ryzen 9000シリーズ(AI PC向けCPU)

 一般消費者向けおよびビジネスPC向けでは、「AI PC」へのシフトが追い風となりました。

  • 強力なNPU(Ryzen AI): プロセッサ内に統合されたAI専用エンジン(NPU)の処理能力が大幅に強化されました。Windowsの次世代AI機能や、自律型AIエージェントをローカル環境で動かしたいという需要に応え、ハイエンドモデルのRyzen 9を中心にデスクトップ・ノートPC両面で出荷が伸びています。

4. 組み込みおよびカスタムシリコン

  • 適応型コンピューティング: 旧ザイリンクスの技術を統合したFPGA製品群が、通信インフラや車載分野で安定した収益を上げています。
  • カスタムチップ: 大手ハイパースケーラー向けのセミカスタムAIアクセラレータ(特定の顧客専用に設計されたチップ)の出荷が始まり、新たな収益源として寄与し始めています。

 「ハイエンドAIアクセラレータの爆発的普及」を筆頭に、「サーバー市場でのシェア奪取」「AI PCの買い替え需要」が三位一体となって、過去最高の売上を達成したと言えます。

AIアクセラレータ「Instinct MI400」が爆発的に成長し、第5世代「EPYC」サーバーCPUも市場シェアを拡大。さらに「Ryzen 9000」シリーズがAI PC需要を捉えるなど、AI関連製品が全方位で過去最高業績を強力に牽引しました。

サーバーCPUの特徴と他のCPUとの違いは何か

 サーバーCPUとは、データセンターや企業の基幹システムなど、「サーバー」としての運用に特化して設計されたプロセッサのことです。

 一般的なパソコン(PC)用のCPUと同じく演算を担うパーツですが、設計の思想や求められる性能のレベルが根本的に異なります。


1. サーバーCPUの主な特徴

 サーバーは、世界中のユーザーからのリクエストに応答したり、膨大な計算を休まず続けたりする必要があります。そのため、以下の3点が重視されます。

  • 多コア・多スレッド: 同時に大量の処理をこなすため、1つのCPUの中に数十〜100以上の「コア(演算回路)」が搭載されています。
  • 高い信頼性と耐久性: 24時間365日の連続稼働を前提としており、エラーを自動修復する機能(ECCメモリへの対応など)が非常に強力です。
  • 圧倒的な拡張性: 数TB(テラバイト)クラスの巨大なメモリを認識でき、1枚の基板に2個以上のCPUを並べて搭載(マルチソケット)することも可能です。

2. 一般的なCPU(デスクトップ・ノートPC用)との違い

 家庭用やビジネス用のPC(クライアントPC)に使われるCPUと比べると、以下のような違いがあります。

項目一般的なCPU (Core i / Ryzenなど)サーバーCPU (EPYC / Xeonなど)
主な用途Web閲覧、動画編集、ゲームなどデータベース、クラウド、AI学習など
コア数数個 〜 20個程度数十個 〜 128個以上
メモリ容量最大 128GB 〜 256GB 程度数TB (テラバイト) 規模
連続稼働数時間〜1日程度の利用を想定365日24時間の連続稼働が前提
拡張性1枚の基板にCPUは1個1枚の基板に2個以上のCPUを搭載可
価格数万円 〜 十数万円数十万円 〜 数百万円

3. なぜサーバー専用が必要なのか

 数万人が同時に利用するオンラインゲームや、銀行の取引システムを家庭用のPCで動かそうとすると、アクセスが集中した瞬間に処理能力が足りなくなったり、熱で停止したりしてしまいます。

 サーバーCPUは、いわば「大量の荷物を一度に、かつ止まらずに運び続ける巨大なトラック」のような存在です。対して一般的なCPUは、「小回りが利き、一人の作業を高速に片付けるスポーツカーや乗用車」に例えられます。

 最近では、ChatGPTのような生成AIの計算を支えるために、これらのサーバーCPUとGPU(画像処理装置)を組み合わせたシステムが世界中で導入されています。

サーバーCPUとは、データセンター等の大規模システム向けに設計されたプロセッサです。24時間稼働を前提とした高い信頼性、100を超える多コアによる並列処理能力、数TBもの巨大メモリへの対応が特徴です。

なぜ、サーバーCPUが好調なのか

 2026年度第1四半期にAMDのサーバーCPU(EPYC)が好調だった理由は、主に以下の3点に集約されます。

1. 推論用AIサーバー需要の急増

 現在、AI業界のトレンドが「学習(モデルを作る)」から「推論(モデルを動かす)」へとシフトしています。

  • Agentic AI(エージェントAI)の普及: 自律的に判断・行動するAIエージェントの処理には、GPUだけでなく高い演算能力を持つCPUが不可欠です。
  • 推論ワークロードの拡大: 企業の業務システムにAIが組み込まれ始めたことで、推論に強いEPYCプロセッサの需要が爆発しました。

2. 圧倒的なコストパフォーマンスと電力効率

 データセンター運営にとって、電気代と設置スペースの削減は最優先課題です。

  • サーバー統合のメリット: 最新の第5世代EPYCは非常に高性能なため、「旧型サーバー7台分をEPYC搭載サーバー1台に集約」できるほどの効率を誇ります。
  • 消費電力の低減: 競合製品と比較して最大60%以上の電力効率改善を達成しており、運用コスト(TCO)の低さで選ばれています。

3. インテルからのシェア奪取

 長年サーバー市場を独占していたインテルに対し、AMDは技術的なリードを広げています。

  • コア数の優位性: 1チップあたりのコア数やメモリ帯域でインテル製品(Xeon)を上回り続けており、クラウド事業者(AWS, Google, Azure等)が標準採用するケースが増えています。
  • 広範なポートフォリオ: 通信インフラ(Telco)や宇宙産業、エッジコンピューティングなど、特定の用途に最適化された製品(EPYC 8005シリーズなど)を展開し、新たな市場を開拓しています。

 「AIを実際に動かすための計算」に最適で、かつ「電気代を安く抑えられる」という点が、世界中のデータセンター事業者に刺さった結果と言えます。

AIの活用が「学習」から「推論」や「自律型AIエージェント」へ進展し、計算の司令塔となるCPUの重要性が再認識されたためです。AMD製品は多コア・低消費電力で勝り、インテルからシェアを奪い続けています。

コメント

タイトルとURLをコピーしました