この記事で分かること
- Trainium 3の特徴:AWSが大規模AIモデルのトレーニング専用に自社開発した最新チップです。前世代比で演算性能が最大4.4倍、メモリ帯域幅も強化され、NVIDIAに対抗する高いコスト効率とエネルギー効率を提供します。
- 自社開発を進める理由:NVIDIAへの依存を減らし、AIトレーニングのコスト効率と演算性能を最適化するためです。大規模LLMを高速で学習させ、AWSのクラウド競争力を強化します。
- エヌビディアの対抗策:自社のCUDAソフトウェアエコシステムの優位性を徹底的に活用します。また、カスタムチップとも連携できる「NVLink Fusion」を提供し、AIインフラのプラットフォーム全体を握る戦略で対抗しています、
AWSの独自AIチップ「Trainium 3」の提供開始
アマゾン(Amazon)傘下のクラウドコンピューティング部門であるAWS(Amazon Web Services)は、独自の最新AIチップ「Trainium 3」の提供開始を発表し、AIチップ市場の競争を加速させています。
https://www.bloomberg.com/jp/news/articles/2025-12-02/T6NTQCT96OSK00
クラウドプロバイダー(AWSのTrainium、GoogleのTPU、MicrosoftのMaiaなど)によるAI特化チップ(ASIC)の増加の一端として注目されています。
Trainium 3とは何か
Trainium 3(トライニアム スリー)は、アマゾン(Amazon)傘下のAWS(Amazon Web Services)が大規模言語モデル(LLM)などのAIトレーニング(学習)用途に特化して自社開発した最新のAIアクセラレータチップです。
これは、NVIDIA(エヌビディア)のGPUに対抗し、AWSクラウドサービスにおいて高いパフォーマンスと優れたコスト効率(TCO)を実現するために設計されています。
Trainium 3の主要な技術特徴と性能
Trainium 3は、前世代のTrainium 2と比較して大幅な性能向上と技術革新を遂げています。
- 製造プロセス:
- 3nmプロセスで製造されており、最新の半導体技術を採用することで、高い集積度と電力効率を実現しています。
- 計算性能:
- 前世代Trainium 2の約2倍のチップ単体性能を提供します。
- Trainium 3チップを最大144個搭載する「Trainium 3 UltraServer」というシステム全体では、前世代比で演算性能が最大4.4倍に向上しています。
- メモリと帯域幅:
- 144GBのHBM3eメモリを搭載し、メモリ容量は前世代の1.5倍、メモリ帯域幅は約4倍に強化されました。
- 単一チップで4.9TB/s(テラバイト/秒)の帯域幅を達成します。
- ネットワーク技術:
- 「NeuronSwitch-v1」という自社開発の新しいネットワーク技術を導入し、サーバー内の帯域幅を2倍にし、チップ間の通信遅延を10マイクロ秒未満に短縮しました。
- エネルギー効率:
- 電力効率も大幅に改善し、前世代と比べて4倍以上のエネルギー効率向上を達成しています。メガワットあたりのトークン出力は5倍に向上しています。
Trainium 3の主な目的
AWSがこのカスタムチップを開発し提供する主な目的は以下の通りです。
- AIトレーニングのコスト削減: 汎用GPU(NVIDIAなど)と比較して、AIトレーニング処理に最適化することで、同等の性能をより低コスト(TCO)提供し、AI開発者がトレーニングにかかる費用と時間を大幅に削減できるようにします。
- 大規模なLLM対応: 大規模なパラメーターを持つLLMのトレーニングに特化しており、AnthropicのClaudeモデルなどの開発に活用されています。AWSは、Trainiumの配置数が100万を超えることを発表しています。
- AWSサービスとのシームレスな統合: AWSが提供するAmazon SageMakerやAmazon Bedrockといった豊富なマネージドサービスとシームレスに連携できるため、機械学習のワークフロー全体をAWS上で効率的に構築・管理できます。
次世代チップ「Trainium 4」の計画
AWSは、すでに次世代チップ「Trainium 4」の開発計画も発表しており、FP4演算で少なくとも6倍の性能向上、4倍のメモリ帯域幅を見込んでいます。特に、NVIDIAのインターコネクト技術「NVLink Fusion」をサポートする予定で、GPUとTrainiumを混在させたヘテロジニアスなAIインフラ構築を目指す「全方位戦略」を打ち出しています。

AWSが大規模AIモデルのトレーニング専用に自社開発した最新チップです。前世代比で演算性能が最大4.4倍、メモリ帯域幅も強化され、NVIDIAに対抗する高いコスト効率とエネルギー効率を提供します。
自社チップ投入の目的は何か
AWSがTrainium 3などの自社開発AIチップを投入する目的は、主に以下の3点に集約されます。
1. コスト効率とTCOの最適化
- コスト優位性の確立: 汎用的なNVIDIA製GPUに依存するのではなく、AIトレーニング用途に特化したカスタムチップを設計することで、より高いパフォーマンスを低コストで顧客に提供し、AWSの収益性と顧客の総所有コスト(TCO)を最適化します。
2. パフォーマンスとスケーラビリティの追求
- 大規模AIワークロードへの対応: 大規模言語モデル(LLM)など、膨大な計算資源を必要とするAIモデルのトレーニングに最適化された性能(Trainium 3では前世代比4倍以上の演算性能)を提供し、高速かつ効率的な学習を可能にします。
- クラウドインフラの強化: 独自の高速インターコネクト(Neuron Fabric)と組み合わせることで、数万個のチップを連携させる巨大なAIスーパーコンピューティングインフラを自社のクラウド上で構築します。
3. サプライチェーンと競争力の強化
- サプライチェーンリスクの低減: NVIDIAなどの外部ベンダーへの依存度を下げ、自社でチップを設計・調達することで、供給の安定性を確保し、需給逼迫による価格変動リスクを回避します。
- 競争優位性の確立: GoogleやMicrosoftなどの競合クラウドプロバイダーも自社チップを開発しており、カスタムチップを提供することで、技術的な差別化を図り、AIワークロードの顧客をAWSに引き付けます。
これらの目的を達成することで、AWSはAI時代におけるクラウドインフラ市場での主導権を強化しようとしています。

NVIDIAへの依存を減らし、AIトレーニングのコスト効率と演算性能を最適化するためです。大規模LLMを高速で学習させ、AWSのクラウド競争力を強化します。
製造先はどこなのか
AWSのTrainium 3チップの製造(ファウンドリ)は、以下のようになっています。
- 製造プロセス: 3nmプロセス
- 製造委託先(ファウンドリ): TSMC(台湾積体電路製造)
Trainium 3は、AWSにとって初の3nmプロセスで製造されるチップであり、AIチップの先端技術においてNVIDIAなどに対抗するために、世界最先端の半導体製造技術を持つTSMCに製造が委託されています。
また、チップの設計面では、AWSが買収したAnnapurna Labsが中心となり、さらにMarvell TechnologyやAlchipといった企業が設計やバックエンドプロセス(パッケージングなど)で協力していることが報じられています。
TSMCは、NVIDIAの最新GPU(H100や次世代製品)の製造も手掛けており、AIチップ市場の競争は、設計元(AWS、NVIDIAなど)と製造元(TSMC)という構図で進んでいます。
AI特化チップ(ASIC)の増加に対するエヌビディアの対策
クラウドプロバイダー(AWSのTrainium、GoogleのTPU、MicrosoftのMaiaなど)によるAI特化チップ(ASIC)の増加に対し、NVIDIA(エヌビディア)は、以下のように主に「オープン戦略」と「エコシステムの統合強化」によって優位性を維持する対策を取っています。
NVIDIAは、単なるハードウェアベンダーではなく、「AIプラットフォーム」の提供者としての地位を確立することで、カスタムチップへの対抗を図っています。
1. NVLink Fusionによる「オープンな統合戦略」
NVIDIAの最も重要な対抗策の一つが、独自の高速インターコネクト技術「NVLink」をベースにした「NVLink Fusion」構想です。
- カスタムチップの包摂: NVLink Fusionは、AWSのTrainiumのような他社のカスタムチップやCPUが、NVIDIAのGPUシステムと同じ高速ネットワーク上で動作できるようにする技術基盤です。
- ヘテロジニアスなインフラ構築: 顧客が特定のタスクに応じて、NVIDIA GPU、他社製CPU、そしてカスタムASICを混在させた最適なインフラを柔軟に構築できるようにサポートします。
- 顧客のロックイン: 他社のチップを取り込めるようにすることで、顧客が既存のNVIDIAインフラを捨てる必要性をなくし、結果的にNVIDIAのプラットフォーム内に顧客を留まらせる効果があります。
2. CUDAエコシステムの圧倒的な優位性
NVIDIAの最大の強みは、ハードウェアの性能ではなく、約15年にわたって培ってきたソフトウェアプラットフォーム「CUDA」の存在です。
- 圧倒的な開発者コミュニティ: 世界中のAI開発者、研究者、企業がCUDAに最適化されたソフトウェア、ライブラリ、フレームワークを利用しており、膨大な資産が蓄積されています。
- 参入障壁: 新しいAIチップ(Trainiumなど)を導入する企業は、性能が高くても、このCUDAエコシステムに匹敵するソフトウェア環境を構築する必要があり、これが非常に高い参入障壁となっています。
- 迅速なデプロイ: NVIDIAのGPUは、ソフトウェアを変更することなく、すぐに利用開始できるという利便性で優位性を保っています。
3. 次世代GPUによる性能の継続的なリード
競合が追いつく間もなく、圧倒的な性能を持つ次世代製品を市場に投入し続けることで、技術的な優位性を維持します。
- Blackwellアーキテクチャ: 最新の「Blackwell」チップは、前世代のHopperチップから大幅な性能向上を果たしており、カスタムチップが登場しても、汎用GPUのベンチマーク(基準)として常に最先端を走り続けます。
- 推論チップへの注力: AIモデルの推論(運用)処理に特化した製品ラインアップも強化しており、トレーニングだけでなく、実用化段階の需要もしっかりと取り込んでいます。
これらの戦略により、NVIDIAはカスタムチップが増えても、AIインフラにおける「デファクトスタンダード(事実上の標準)」としての地位を盤石にしようとしています。

自社のCUDAソフトウェアエコシステムの優位性を徹底的に活用します。また、カスタムチップとも連携できる「NVLink Fusion」を提供し、AIインフラのプラットフォーム全体を握る戦略で対抗します。

コメント