この記事で分かること
- 契約内容:ブロードコムはGoogleと2031年までの次世代TPU供給契約を締結しました。同時にAnthropicへ2027年から3.5GW規模の計算能力を提供します。ASICと高速通信技術を軸に、巨大AI基盤を独占的に支えます。
- TPUとは:Googleが開発したAI特化型プロセッサです。汎用的なCPUやGPUと異なり、AIの根幹である「行列演算」を極めて高速かつ低電力で処理するよう最適化されており、大規模な深層学習の学習や推論に利用されます。
- なぜブロードコムが選ばれたのか:ブロードコムは、AIチップ(ASIC)設計の膨大な知的財産と、チップ間を高速で繋ぐ「SerDes」等の通信技術で世界をリードしています。設計からパッケージング、高速ネットワークまで一貫して最適化できる唯一無二の技術力が選定の決め手です。
- SerDesとは:チップ間のデータを高速伝送する技術です。チップ内部の並列データを1本の直列データに変換して送り、受信側で元に戻します。配線数を抑えつつノイズを防ぎ、AI基盤に不可欠な膨大なデータ転送を支えています。
ブロードコム、Google・AnthropicとAIチップの長期供給契約
ブロードコムはGoogle・AnthropicとAIチップの長期供給契約を締結しています。
GoogleのTPU開発支援に加え、Anthropicのモデル基盤を支えるカスタムチップと高速通信技術を安定供給し、AI競争力を強化します。
TPUとは何か
TPU(Tensor Processing Unit)は、GoogleがAI(機械学習)の処理を高速化するために独自に開発したAI特化型プロセッサ(ASIC)です。
汎用的な処理を行うCPUや、画像処理を転用したGPUとは異なり、AIの根幹となる「行列演算」を極めて効率的に行うよう設計されています。
TPUの主な特徴
- 行列演算に特化: 「シストリック・アレイ」という独自のアーキテクチャを採用しており、膨大なデータの掛け算と足し算を同時に、かつ低消費電力で実行できます。
- Google Cloudでの提供: 一般的なPCパーツとしては販売されておらず、主にGoogleのデータセンターに配備されています。ユーザーはGoogle Cloud(Cloud TPU)を通じてその計算能力を利用します。
- TensorFlowとの最適化: Googleの機械学習フレームワーク「TensorFlow」との親和性が非常に高く、大規模な深層学習モデル(LLMなど)の学習時間を大幅に短縮します。

TPUはGoogle開発のAI特化型プロセッサです。行列演算に最適化された設計により、一般的なGPUより高速かつ低電力で深層学習を処理できます。Google Cloud経由で大規模モデルの学習等に利用されます。
なぜブロードコムが選ばれたのか
ブロードコムがGoogleなどのハイテク大手(ハイパースケーラー)からAIチップのパートナーとして選ばれる理由は、単に製造を請け負うだけでなく、「設計・通信・パッケージング」の3分野で代替不可能な技術を持っているためです。
1. ASIC(カスタムチップ)設計の圧倒的実績
GoogleのTPUのようなカスタムチップ(ASIC)の開発において、ブロードコムは世界トップのシェアを誇ります。
- 知的財産(IP)の豊富さ: チップを動かすために必要な「セルのライブラリ」や高速インターフェースの設計図を大量に保有しており、ゼロから作るよりも遥かに短期間で高性能なチップを設計できます。
- 微細化への対応: 3nmや2nmといった最先端プロセスへの移行において、設計の複雑さを解消するノウハウを蓄積しています。
2. 「通信のボトルネック」を解消する技術
AIの学習には数万個のチップを繋ぐ必要がありますが、チップ間のデータ転送が遅いと全体の性能が落ちてしまいます。
- インターコネクト技術: ブロードコムは、チップ同士を高速で繋ぐ「SerDes(サーデス)」という技術で世界一の性能を持っています。
- ネットワークスイッチ: データセンター内の通信を制御するスイッチ用チップでも市場を支配しており、チップからネットワーク全体までを一貫した技術で最適化できるのが強みです。
3. 高度なパッケージングとHBMの統合
現代のAIチップは、演算ユニットの横に超高速メモリ(HBM)を隙間なく配置する「先進パッケージング技術」が不可欠です。
- CoWoS等の実装: ブロードコムは、複数のシリコンを1つのパッケージに収める複雑な工程において、TSMCなどの製造企業と密接に連携し、歩留まり(成功率)の高い設計を実現しています。

ブロードコムは、世界最高水準の設計資産(IP)とチップ間高速通信技術、高度なパッケージング技術を併せ持つため選ばれます。AIの巨大計算基盤に不可欠な「処理効率」と「接続性」を両立できる唯一無二の存在です。
SerDesはどのようにチップ同士を高速で繋ぐのか
SerDes(サーデス)は、Serializer(シリアライザ)とDeserializer(デシリアライザ)を組み合わせた言葉で、データの「束」を「一本道」に変えて送る技術です。
チップ同士を高速で繋ぐ仕組みは、主に以下の3つのステップで行われます。
1. 並列から直列への変換(高速化の準備)
チップ内部では、データは道路が何本も並んでいるような「並列(パラレル)」状態で処理されています。しかし、これをそのままチップの外へ送ろうとすると、配線数が膨大になり、信号同士の干渉(ノイズ)が発生して速度が上がりません。
そこで、SerDesは出口でこのデータを1本の超高速な通り道(シリアル)にまとめます。
2. 高速な差動信号による伝送
1本にまとめられたデータは、非常に高い周波数で送信されます。この際、ノイズに強い「差動信号」という方式を使い、信号の劣化を防ぎながら長距離(といっても基板上の数センチ〜数十センチ)を飛ばします。ブロードコムの強みは、この信号を極めて正確に、かつ低消費電力で生成・制御できる点にあります。
3. 直列から並列への復元(元のデータに戻す)
受け取り側のチップの入り口では、バラバラに届いた超高速な1本のデータ列を、再びチップが理解できる「並列」の状態に戻します。このとき、送信側と受信側のタイミング(クロック)を完璧に合わせる高度な同期技術が必要となります。

SerDesはチップ内の並列データを1本の超高速な直列データに変換して伝送する技術です。配線数を減らしつつノイズを抑えることで、AI処理に不可欠なチップ間の膨大なデータ転送を高速かつ効率的に実現します。
競合にはどんなところがあるのか
ブロードコムの主な競合は、AIチップの「種類」や「役割」によっていくつかに分類されます。特にASIC(カスタムチップ)とネットワーク関連の分野で激しいシェア争いが繰り広げられています。
1. ASIC(カスタムチップ)設計の直接競合
ブロードコムがGoogleのTPUを支援するように、他のハイテクスケール企業(Meta, Amazon, Microsoftなど)のカスタムチップ受注を狙うライバルです。
- Marvell Technology(マーベル): ブロードコム最大のライバルです。Amazonの独自チップ(Trainium/Inferentia)や、最近ではMetaのAIチップ開発でも強力なパートナーシップを築いています。
- MediaTek(メディアテック): スマホ向けチップで有名ですが、近年はGoogleとの提携を深めるなど、データセンター向けASIC市場への参入を強化しています。
2. AIインフラ全体の覇者
- NVIDIA(エヌビディア): 最大の競合であり、時には補完関係にもなります。汎用GPU市場では圧倒的ですが、ブロードコムが注力する「カスタムASIC」へのシフトは、NVIDIAの独占を崩したい顧客(Google等)のニーズに基づいています。
- AMD: FPGA(柔軟に書き換え可能なチップ)に強いXilinxを買収しており、特定のAI処理に特化したカスタムソリューションでブロードコムと競合します。
3. ネットワーク・インターコネクト分野
チップ同士を繋ぐスイッチや通信技術での競合です。
- NVIDIA (Mellanox): 独自の高速通信規格「InfiniBand」を推進しており、ブロードコムが主導する「Ethernet(イーサネット)」陣営と、AIクラスターの通信規格争いを行っています。
- Cisco(シスコ): ネットワーク機器の巨人として、データセンター内のスイッチ用チップなどで競合しています。

直接の競合はカスタムチップ設計で競り合うMarvellです。また、汎用チップ王者のNVIDIAとは市場シェアを奪い合う一方、通信規格(Ethernet vs InfiniBand)でも激しく対立しています。

コメント