エヌビディア、中国市場向け新型AIチップの不調 不調の要因は何か?エヌビディア製品と中国の代替品との性能差は?

この記事で分かること

  • 中国向け製品不調の要因:米国の輸出規制に対応するために性能を抑えたモデルのため、性能が価格に見合わず、中国政府が国産チップを推進しているためです。さらに、米国製チップへの政治的不信感も理由の一つです。
  • 抑えている性能とは:意図的にメモリ帯域幅や計算性能が制限されています。特に、AIモデルの学習に不可欠な高速データ転送能力が低いため、高性能なオリジナルモデルと比べて大規模な処理が非効率となります。
  • 中国製品とエヌビディアの差:ファーウェイのAIモデルの学習向けに設計された高性能チップAscend 910Bは、エヌビディアの性能を抑えたモデルよりは優れていますが、フラッグシップであるH100の性能には及ばないとされています。

エヌビディア、中国市場向け新型AIチップの不調

 エヌビディアが中国市場向けに開発した新型AIチップ、特にRTX6000Dの需要が低調です。このチップは米国の輸出規制に対応するために性能を抑えたモデルですが、主要な中国テック企業からの注文が伸び悩んでいます。

エヌビディアの中国向け新型AIチップの需要低調、性能面で割高 大手が発注見送り
エヌビディアの中国市場向けの最新人工知能(AI)チップ「RTX6000D」が、一部大手ハイテク企業が発注を見送るなど需要が鈍いことが調達に詳しい関係者2人の話で分かった。性能の割には高価とみられているという。

 背景には、性能と価格の不均衡、代替品の存在などがあり、米国が中国の技術進歩を抑えようとする輸出規制の複雑な影響を示しています。

低調の理由は何か

 エヌビディアの中国向け新型AIチップの需要が低調である理由は、複数の要因が複雑に絡み合っています。

1. 性能と価格の不均衡

  • 性能制限: 米国の輸出規制に対応するため、新型チップは最先端のAIモデルの学習(トレーニング)に必要な極めて高いスループット性能が意図的に抑えられています。
  • 価格: 性能が制限されているにもかかわらず、一部の専門家からは価格が高すぎると指摘されています。このため、中国企業にとっては費用対効果が低いと見なされています。

2. 中国企業の代替品へのシフト

  • 国産チップの台頭: 米国の輸出規制への対抗措置として、中国政府は国産AIチップの開発と利用を強力に推進しています。ファーウェイ(Huawei)の「Ascend」シリーズをはじめ、中国国内のテック企業やスタートアップが自社開発チップの実用化を進めており、データセンターでの国産チップ採用が義務化される動きも出てきています。
  • 自社開発: アリババやバイドゥといった大手テック企業は、AIモデルの学習に自社開発のチップを導入し始めており、エヌビディアへの依存を減らす戦略を進めています。

3. 地政学的なリスクと不信感

  • 米国の「侮辱的」発言: 米商務長官が「我々は最高性能の製品を中国に売らない。2番手も、3番手さえもだ」「中国の開発者が米国の技術エコシステムに依存し、抜け出せなくなるまで(性能を落とした製品を)十分に売り込む」と発言したことが、中国の指導者層のプライドを深く傷つけ、米国製技術への不信感を高めました。
  • サイバーセキュリティ懸念: 中国の一部企業は、米国製チップの使用が将来的なリモートシャットダウンやデータ盗難につながる可能性を懸念しており、政治的に安全な国産チップへの移行を加速させています。

4. 高性能チップの動向

  • H20チップの不確実性: より高性能なH20チップの販売許可は得られたものの、供給が不安定な状況が続いています。一部の中国企業は、安定供給が見込めるH20チップの出荷再開を待っており、代替品である新型チップの購入に踏み切れていない状況です。

 これらの理由から、エヌビディアの中国向け新型チップは、中国市場が求める性能・価格・政治的信頼性のいずれにおいても、最適解とは見なされず、需要が低迷しています。

性能が価格に見合わず、中国政府が国産チップを推進しているためです。さらに、米国製チップへの政治的不信感や、より高性能なH20チップの供給待ちも需要低迷の要因となっています。

どのような性能が低いのか

 エヌビディアが中国向けに開発したAIチップの性能は、米国の輸出規制をクリアするために意図的に制限されています。特に、以下の点が高性能なオリジナルモデル(例:H100)と比較して低くなっています。

  • メモリ帯域幅: AIモデルの学習や推論では、大量のデータを高速に処理する必要があります。メモリ帯域幅はその処理速度を示す重要な指標ですが、中国向けチップはこの帯域幅に上限が設けられています。以前の高性能モデル(H20)が4テラバイト/秒の帯域幅を持っていたのに対し、新しいチップはGDDR7メモリ技術を使用し、規制上限に近い約1.7テラバイト/秒の帯域幅に抑えられていると報じられています。
  • 計算性能: チップの演算能力自体も制限されています。報道によると、次世代の「Blackwell」アーキテクチャをベースとする新型チップ「B30」は、その性能が元のBlackwellの約80%に抑えられているとされています。
  • 相互接続性能: 複数のチップを連携させて大規模なAIモデルを動かすために重要な「NVLink」などの相互接続技術も、規制の対象となっています。中国向けチップは、この機能が制限されるか、完全に無効化されている可能性があります。

 これらの性能制限は、特に大規模なAIモデルの学習や、要求の厳しい推論タスクにおいて、処理速度のボトルネックとなり、中国企業が求めるレベルの性能を提供できない原因となっています。

意図的にメモリ帯域幅計算性能が制限されています。特に、AIモデルの学習に不可欠な高速データ転送能力が低いため、高性能なオリジナルモデルと比べて大規模な処理が非効率となります。

AIモデルの学習では高速データ転送能力が必要な理由

 AIモデルの学習には、大量のデータを短時間で処理装置(GPU)に供給する必要があるため、高速なデータ転送能力が不可欠です。

なぜ高速データ転送が重要なのか

 AIモデルの学習は、以下のようなステップを繰り返すことで成り立っています。

  1. データ読み込み: 大量の学習データをストレージやメモリからGPUに転送します。
  2. 計算: GPUがデータを使ってモデルのパラメータを更新する計算を行います。
  3. 結果の書き込み: 更新されたモデルの重み(パラメータ)をメモリに書き戻します。

 この一連の作業において、データ転送速度が遅いと、GPUが計算を終えて次のデータを待つ時間が生じ、GPUの高性能な演算能力を十分に活用できません。これは「I/O(入出力)ボトルネック」と呼ばれ、システム全体の効率を著しく低下させます。

データの規模と転送速度

 近年、GPT-4やClaude 3のような大規模言語モデル(LLM)の登場により、AIモデルのサイズ(パラメータ数)や学習データの量は爆発的に増加しています。これらのモデルを効率的に学習させるには、以下のような大量のデータをGPUに高速に転送する必要があります。

  • 学習データ: 数テラバイトから数ペタバイトに及ぶ膨大なデータセット。
  • モデルのパラメータ: 数十億から数兆にもなるモデルの重みデータ。

 高速なデータ転送は、これらの膨大なデータを途切れることなくGPUに供給し続け、GPUの計算リソースを最大限に活用するために不可欠です。メモリ帯域幅が広いほど、より多くのデータを一度に送れるため、学習時間が大幅に短縮され、効率が向上します。

AIモデルの学習は、膨大なデータをGPUに高速に送り込み、計算を続ける必要があるからです。データ転送が遅いと、GPUがデータの到着を待つ「I/Oボトルネック」が発生し、計算能力を十分に活かせず、学習効率が低下します。

中国企業の代替品の例は

 エヌビディアのAIチップの代替品として、中国国内のテック企業が開発・生産している主要なチップには以下のようなものがあります。

1. ファーウェイ(Huawei) – Ascend(アセンド)シリーズ

  • Ascend 910: 特にAIモデルの学習(トレーニング)向けに設計された高性能チップ。米国の規制によりNVIDIAの高性能チップが手に入りにくくなった中国市場で、最も有力な代替品と見なされています。
  • Ascend 910B: 2023年に発表された新モデルで、性能はNVIDIAのA100に近いとされています。このチップの需要が非常に高く、ファーウェイのAIチップ事業は急成長しています。
  • 特徴: ファーウェイは独自のソフトウェアエコシステム「CANN」を構築しており、NVIDIAのCUDAに代わる環境を提供することで、垂直統合的な戦略を進めています。

2. バイドゥ(Baidu) – Kunlun(崑崙)シリーズ

  • Kunlunxin P800: バイドゥが開発したAIチップで、自社のAIモデル「Ernie」の学習や推論に利用されています。
  • 特徴: NVIDIAのCUDAエコシステムとの互換性を重視している点が特徴です。これにより、NVIDIAのソフトウェア資産を利用してきた開発者が、比較的容易に国産チップに移行できるようになっています。

3. アリババ(Alibaba) – Hanguang(含光)800、Zhenwu(振武)シリーズ

  • Hanguang 800: AI推論に特化したチップで、アリババのオンラインショッピングや検索サービスで画像認識や商品検索を高速化するために使われています。
  • Zhenwu: より広範なAIタスクに対応するプロセッサで、アリババのクラウドサービスで利用されています。

4. その他

  • 壁仞科技(Biren Technology): 高性能なGPGPU(汎用GPU)を開発するスタートアップ。NVIDIAのA100に近い性能を持つ製品をリリースしています。
  • 地平線(Horizon Robotics): 主に自動運転やスマートカー向けのAIチップを開発しています。

 これらの企業は、米国の規制をきっかけに、自国でのAIチップ開発を国家戦略として加速させており、エヌビディアにとって強力なライバルとなっています。特にファーウェイは、その技術力と政府の後押しにより、市場での存在感を急速に高めています。

ファーウェイの「Ascend」シリーズが代表的で、特に「Ascend 910B」はNVIDIAの高性能チップの代替として急速に普及。その他、アリババの「Hanguang」やバイドゥの「Kunlun」も自社サービスで活用されています。

中国企業の代替品とRTX6000D、H20の性能比較は

 中国企業の代替品、エヌビディアのRTX6000D、H20の性能比較は、公式なベンチマークデータが少ないため一概には言えませんが、報道や専門家の分析から以下の傾向が読み取れます。

1. NVIDIA H20

  • 位置づけ: NVIDIAのフラッグシップモデル「H100」の性能を、米国の輸出規制基準に合わせて意図的に下げたモデル。
  • 性能: H100と比べて、メモリ帯域幅、GPU間接続(NVLink)の速度などが大幅に制限されています。しかし、同じNVIDIAのCUDAエコシステム上で動作するため、ソフトウェアの互換性が非常に高いのが強みです。
  • 課題: 性能を下げたことで、一部のAI学習タスクではH100に比べて効率が著しく低下します。また、供給が不安定であり、中国国内のテック企業は安定的な供給を待っている状況です。

2. NVIDIA RTX6000D

  • 位置づけ: H20よりもさらに性能が低いと見られる、主にAI推論向けに設計された新型チップ。
  • 性能: メモリ帯域幅が規制上限の1.4テラバイト/秒をわずかに下回る約1.398テラバイト/秒に抑えられているとの情報があります。高性能なオリジナルモデルよりも大幅に性能が低いため、大規模なAI学習には適していません。
  • 課題: H20よりも性能が低いにもかかわらず、価格が高いため、コストパフォーマンスが悪いと評価されています。

3. ファーウェイ Ascend 910B

  • 位置づけ: NVIDIAのA100に近い性能を持つとされる、中国を代表するAI学習用チップ。
  • 性能: 報道によると、Ascend 910BはNVIDIAの旧世代フラッグシップモデルであるA100と理論上の性能で同等、またはそれを上回るとの分析もあります。AI学習のコア性能でNVIDIAの規制対象モデルに対抗できるレベルに達していると見られています。
  • 課題: ファーウェイ独自のソフトウェアエコシステム「CANN」を使用する必要があり、NVIDIAのCUDAに慣れた開発者が移行するには学習コストがかかります。また、最先端の製造プロセス(5nm以下)の利用が困難であるため、将来的にはNVIDIAとの性能差が再び開く可能性があります。

結論

  • RTX6000Dは、性能と価格のバランスが悪く、市場での競争力が低い。
  • H20は性能面で優位性があるものの、供給の不確実性が大きな課題。
  •  ファーウェイ Ascend 910Bは、性能面でRTX6000DやH20と十分に競合できるレベルに達しており、中国企業の「代替品」として最も有力な選択肢となっています。さらに、中国政府の後押しや、NVIDIAへの依存を減らしたい企業の思惑が重なり、需要が拡大しています。

 Ascend 910BもH100には及ばないのか

 報道やアナリストの分析によると、ファーウェイのAscend 910Bは、NVIDIAのフラッグシップであるH100には及ばないとされています。ただし、その性能差は一世代前のNVIDIAチップ(A100)と比べると、かなり縮まっていると考えられています。

Ascend 910B

  • 位置づけ: NVIDIAのA100に近い性能を持つと広く評価されています。これは、H100の直接的な競合というよりは、一世代前のNVIDIA製チップと戦う位置にいることを意味します。
  • 計算性能: 理論上のピーク性能(TFLOPS)では、H100に大きく劣ります。H100がAI学習で驚異的な性能を発揮するのは、FP8のような新しいデータ形式や、スパース性(疎性)を活用する技術に最適化されているためです。
  • メモリ帯域幅: H100が3TB/sを超える高速なメモリ帯域幅を持つHBM3メモリを採用しているのに対し、Ascend 910Bはそれよりも遅いHBM2eメモリを使用しているとされています。大規模言語モデル(LLM)の学習においては、このメモリ帯域幅の差がボトルネックとなり、H100との性能差を決定づけます。
  • エコシステム: NVIDIAのCUDAエコシステムは、長年の蓄積があり、開発者コミュニティや最適化されたソフトウェアが豊富です。一方、ファーウェイの「CANN」エコシステムはまだ発展途上であり、これが実運用における性能や使いやすさに影響を与えます。

NVIDIA H100

  • 圧倒的な性能: H100は、AI学習と推論の両方で、現時点で世界最高レベルの性能を誇ります。特に、大規模なデータセットとモデルを扱う場合、H100の計算能力、メモリ帯域幅、そしてNVLinkのような相互接続技術の優位性は圧倒的です。
  • 製造技術: H100はTSMCの最先端プロセス(4N)で製造されており、チップのトランジスタ密度や効率性がAscend 910Bの製造プロセス(SMICの7nm)よりも優れています。

結論

 Ascend 910Bは、NVIDIAが中国に輸出する規制対象のH20よりも高性能な可能性があり、A100とは十分に競争できるレベルに達しています。しかし、NVIDIAの現行のフラッグシップであるH100の性能には及ばず、特に大規模なAIモデルの学習においては、いまだNVIDIAが技術的な優位性を保っていると言えます。

 中国企業がAscend 910Bに注目しているのは、H100が入手できない中で、最も現実的で高性能な国内製代替品だからです。

コメント

タイトルとURLをコピーしました