グーグルとマーベル・テクノロジーのAIチップ共同開発 どんなAIチップを開発するのか?

この記事で分かること

1. 共同開発の内容

既存のTPUを補完し、データ転送を高速化する「メモリ処理ユニット(MPU)」と、AIの回答生成に特化した「次世代・推論特化型TPU」の2種を開発する予定です。

2. 推論プロセスへの特化に必要なこと

学習時のような膨大な計算力よりも、「低遅延」と「低電力」が最優先されます。具体的には、計算精度をあえて下げる量子化技術の活用や、計算回路のすぐ近くにメモリを配置し、データの移動距離を最短にする設計が必要です。

3. なぜマーベルを選んだのか

チップ間を繋ぐ「高速インターコネクト技術」に優れ、推論のボトルネックとなる通信の遅滞を解消できるからです。また、長年のパートナーであるブロードコムへの依存を減らし、供給網の多角化とコスト削減を図る狙いもあります。

グーグルとマーベル・テクノロジーのAIチップ共同開発

 グーグル(Alphabet)が半導体設計大手のマーベル・テクノロジー(Marvell Technology)と、新たなAIチップ開発に向けて協議中であるとの報道がされています。

 https://jp.reuters.com/world/us/MJUTLZ2DRJJLHD5S7NTKXCCT74-2026-04-19/

 グーグルはこれまで、AI専用プロセッサであるTPU(Tensor Processing Unit)の開発において主にブロードコム(Broadcom)と協力してきましたが、今回の動きはサプライチェーンの多角化と、推論コストの最適化を狙った戦略的なものとみられています。

どんなAIチップ開発を開発するのか

 2026年4月の報道によると、グーグルとマーベル・テクノロジーが共同開発を検討しているのは、役割が異なる「2種類のAIチップ」です。

 これまでのグーグル製チップ(TPU)は、AIの「学習」と「推論」の両方をこなす汎用的な設計が中心でしたが、今回のプロジェクトは、特定の処理を専門化させて「圧倒的なコスト効率」を実現することを目指しています。


1. メモリ処理ユニット(MPU)

 既存のTPU(Tensor Processing Unit)とセットで使用することを想定した、「メモリ管理の専門家」のようなチップです。

  • 役割: AIの計算において最も負荷がかかる「データの読み書き(メモリ処理)」をTPU本体から引き受けます。
  • メリット: メモリ処理をこの専用チップに任せることで、メインのTPUが計算だけに集中できるようになります。これにより、システム全体のデータ転送の停滞(ボトルネック)が解消され、処理速度が向上します。
  • 目的: 既存のTPUシステムの寿命を延ばし、より大規模なAIモデルを効率的に動かすための「補助エンジン」としての役割を担います。

2. 次世代・推論特化型TPU

 AIモデルが回答を生成する「推論(Inference)」プロセスに特化してゼロから設計される、全く新しいTPUです。

  • 役割: 巨大なAI(Geminiなど)がユーザーの質問に対してリアルタイムで回答を生成する際の「実行」に最適化されています。
  • メリット: 学習(Training)に必要な膨大な計算機能をあえて削ぎ落とし、推論に必要な機能だけに絞り込むことで、「低消費電力」「低コスト」を両立させます。
  • 背景: 2026年現在、AIの運用コストの8〜9割は「推論」にかかると言われており、ここを安く動かせるチップを持つことがグーグルの競争力に直結します。

グーグルはマーベルと協力し、AIの回答生成を担う「推論特化型TPU」と、データ転送を高速化する「メモリ処理ユニット(MPU)」の2種の共同開発を検討していると見られます。NVIDIA依存を脱却し、電力効率とコストの最適化を狙います。

推論プロセスへの特化するには何が必要か

 AIチップを「推論プロセス」に特化させるには、学習時のような「巨大な計算パワー」よりも、「いかに速く、安く、効率よくデータを回すか」という設計思想への転換が必要になります。

具体的には、以下の3つの要素が鍵となります。

1. 低精度演算への切り替え(軽量化)

 AIの「学習」には厳密な計算(高い精度)が必要ですが、「推論」は少しアバウトな計算でも正解を導き出せます。

  • 量子化(Quantization): データを32ビット(高精度)から8ビットや4ビット(低精度)に圧縮して処理します。
  • メリット: 計算量が劇的に減り、チップの面積を小さく、かつ消費電力を大幅に抑えることができます。

2. メモリ・ボトルネックの解消(スピード)

 推論において最大の壁は、計算速度よりも「メモリからデータを取ってくるスピード」にあります。

  • メモリ処理の専用化: 今回グーグルがマーベルと検討している「MPU(メモリ処理ユニット)」のように、データの読み書きを専門に担う回路を設けます。
  • 近接メモリ(Near Memory): 演算回路のすぐ近くにメモリを配置し、データの移動距離を最短にします。これにより、生成AIが1文字ずつ回答を出力する際の待ち時間(レイテンシ)を最小化します。

3. 「学習機能」の削除(コスト削減)

 汎用的なGPU(NVIDIAなど)は、学習に不可欠な複雑な回路を搭載していますが、推論専用チップではこれらをバッサリ削ります。

  • ASIC(特定用途向け集積回路)化: 「推論だけ」に特化した専用回路にすることで、不要な電力消費を無くし、同じコストでより多くのユーザーの質問をさばけるようになります。

まとめ:特化に必要な3要素

要素学習チップ(GPU/TPU)推論特化チップ(ASIC)
精度高精度(FP32/FP16)低精度(INT8/INT4)
優先事項巨大な計算スループット応答速度(低レイテンシ)
設計汎用的で多機能極限までシンプルで低電力

 このように、推論への特化とは「計算の質を賢く落とし、データの流れを最速にする」という引き算の設計を行うことを意味します。

なぜ「マーベル」を選んだのか

 グーグルが長年のパートナーであるブロードコム(Broadcom)だけでなく、新たにマーベル(Marvell Technology)をパートナーに選んだのには、戦略的・技術的な3つの理由があります。

1. 「インターコネクト(接続)技術」の圧倒的な強み

 AIチップそのものの性能も重要ですが、現在のAI開発では「数万個のチップをいかにつなぎ、一つの巨大な脳として動かすか」という通信技術がボトルネックになっています。

  • 光学接続(光電融合): マーベルは、電気信号を光に換えて高速伝送する「シリコンフォトニクス」や、チップ間を結ぶ高速インターフェース技術で業界トップクラスの資産を持っています。
  • 推論の高速化: AIの回答を速くするには、メモリとプロセッサ間、あるいはサーバー間でのデータのやり取りをミリ秒単位で削る必要があり、マーベルの通信技術が不可欠でした。

2. サプライチェーンの「多角化」と「交渉力」

 これまでグーグルのカスタムチップ(TPU)開発は、ブロードコムがほぼ独占的に請け負ってきました。

  • 独占リスクの回避: 一社に依存しすぎると、製造ラインの確保や価格交渉で不利になります。マーベルを第2の選択肢として加えることで、供給を安定させ、製造コストを競わせる狙いがあります。
  • ブロードコムとの関係: 実際、過去にはブロードコムとの間で価格設定を巡る対立が報じられたこともあり、グーグルとしては「代わりがいる」状況を作ることが経営上の至上命題でした。

3. カスタムASIC開発への柔軟な姿勢

 マーベルは、顧客の要望に合わせて一から設計を支援するカスタムASICビジネスを成長戦略の柱に据えています。

  • グーグルの独自設計を尊重: マーベルは、グーグルが持つ独自のAIアルゴリズムを物理的な回路に落とし込む「設計支援」の立場に徹する柔軟性を持っています。
  • 推論への最適化: 特に今回のような「推論特化」や「メモリ処理特化」といった、特定のニッチな機能を切り出したチップ開発において、マーベルの持つ既存の設計資産(IP)が転用しやすかったと考えられます。

 「チップ同士をつなぐ通信技術が世界最高レベルであり、かつブロードコムへの依存を減らすための最強の対抗馬だったから」といえます。グーグルはマーベルを抱き込むことで、NVIDIAに頼らない自社専用の「安くて速いAIインフラ」をより盤石なものにしようとしています。

理由の一つは、チップ間のデータ転送を高速化する接続技術(インターコネクト)に強いからです。また、長年のパートナーであるブロードコムへの過度な依存を避け、供給網の安定化とコスト削減を図る狙いもあります。

コメント

タイトルとURLをコピーしました