Metaの最新AIモデル モデルの特徴は何か?

この記事で分かること

  • 最新モデルの特徴:テキスト・画像を統合処理するネイティブマルチモーダル推論モデル。複数エージェントが並列思考する「Contemplating モード」を搭載し、ヘルスケアや視覚理解に強みを持ちます。
  • なぜクローズドモデルにしたのか:数十億ドルを投じてゼロから再構築した技術革新を競合に模倣されないよう守るため。Llama 4の失敗で失った信頼を、管理された環境で着実に回復する狙いもあります。
  • 競合との差:競合との差 視覚理解や医療分野では競争力があるが、コーディングや抽象的推論ではOpenAI・Anthropic・Googleの最新モデルに依然届いておらず、「首位争いに戻った」ではなく「レースに復帰した」水準です。

Metaの最新AIモデル

米Metaは4月8日、最新のAIモデルを発表しました。ザッカーバーグCEOが競合に対抗するため巨額を投じてAI組織の刷新に乗り出して以来、初のモデルとなります。

https://www.bloomberg.com/jp/news/articles/2026-04-08/TD6QE6T96OSG00#gsc.tab=0

  最新AIモデルの発表を受けてメタの株価は上昇し、一時9%高となっています。

新モデルの特徴は何か

概要

 米Metaは4月8日、最新のAIモデルを発表しました。ザッカーバーグCEOが競合に対抗するため巨額を投じてAI組織の刷新に乗り出して以来、初のモデルとなります。


開発組織:Meta Superintelligence Labs(MSL)

 Muse SparkはMeta Superintelligence Labsから生まれた最初のモデルです。ザッカーバーグCEOがMetaとLlamaモデルの進捗に不満を持ち、OpenAIのChatGPTやAnthropicのClaudeに後れをとっていることを問題視したことから設立された組織です。

 MetaはScale AIの共同創設者でCEOだったアレクサンダー・ワン氏をMSLのトップに招き、同社に143億ドルを投資して49%の株式を取得しました。


モデルの主な特徴

 Muse Sparkの特徴は、テキストだけでなく画像など複数の情報を統合して推論できるネイティブマルチモーダル能力、複数のエージェントが並列で推論を進める「Contemplating(熟考)モード」への対応、視覚理解やヘルスケアなどMetaの「パーソナルスーパーインテリジェンス」戦略に沿った分野での高性能などです。


戦略の大転換:クローズドモデルへ

 チャットボット「Meta AI」の基盤となるMuse Sparkは、従来のオープンソース戦略から転換し、設計やコードを公開しないクローズド型を採用しています。ただし、将来的にオープンソース化することも視野に入れているとのことです。


性能評価

 OpenAI・Anthropic・Googleといった競合と、多くの主要ベンチマークで再び張り合える水準に達したとしています。首位争いをするところまではまだ至っていませんが、期待外れだったこれまでの取り組みからは格段にレベルが上がっています。


提供状況

 MUSE Sparkは2026年4月8日よりmeta.aiとMeta AIアプリで提供が始まっており、米国を皮切りにInstagram、Facebook、WhatsApp、さらにはMetaのAIグラスなど多様なサービスに順次搭載予定です。


 Metaにとって、Llama路線からの脱却と「超知能」実現への本格始動を象徴するリリースといえます。今後のモデル強化と競合との差縮めに注目が集まっています。

競合との差に不満を持ったザッカーバーグCEOが設立したMeta Superintelligence Labsから生まれた最初のモデルです。従来のオープンソース戦略から転換し、設計やコードを公開しないクローズド型を採用し、多くの主要ベンチマークで再び張り合える水準に達しています。

なぜクローズドモデルに転換したのか

 クローズドモデルへの転換には、複数の背景と理由が絡み合っています。


① 競争優位性の確保(最大の理由)

 激しい競争の中で、アーキテクチャの革新を独自のものとして維持することは、一時的な優位性をもたらす可能性があります。

 オープンソースで公開してしまえば、競合他社がすぐに追随・模倣できてしまいます。数十億ドルを投じてゼロから再構築した新技術を、まずは自社で独占したいという判断です。


② Llama 4の失敗と信頼回復

 Muse Sparkは、Metaが昨年4月にリリースしたLlama 4の後継にあたります。Llama 4は広く「失敗作」と評され、その後の独立した検証でベンチマーク操作の疑惑も浮上しました。

 Metaは特定タスク向けに微調整した未公開バージョンを使ってスコアを高く見せていたことを後に認めています。公開直後に欠点をさらされるリスクを避けるため、クローズドで管理しながら改善を続ける狙いもあるとみられます。


③ ビジネスモデルの転換

 Muse Sparkはクローズドモデルとして展開されており、FacebookやInstagramなど月間数十億ユーザーのプラットフォームへの展開を背景に、AI競争における存在感を高めることが狙いです。

 オープンソース時代のLlamaは「誰でも使える」モデルとして開発者に支持されましたが、Metaの広告・ショッピング・ヘルスケアといった自社サービスへの深い統合という新戦略とは相性が悪く、方針を転換した形です。


④ ザッカーバーグの以前の発言との矛盾

 この転換は、ザッカーバーグが以前「オープンソースAIこそが世界にとって最善の道だ」と公言していた立場と真っ向から矛盾しています。彼はかつて「Llamaを公開してもMetaの収益や研究投資能力は損なわれない」とも述べており、今回の決断はその主張を自ら覆すものです。


オープンソースで先頭を走れなくなったため、クローズドで技術的優位を守りながら巻き返す」という戦略転換です。ただし、Metaは将来的にMuse Sparkのオープンソース版をリリースする計画も持っており、完全な路線変更というより「まず自社で磨いてから公開する」という段階的なアプローチとも解釈できます。

ネイティブマルチモーダル能力とは何か

 ネイティブマルチモーダルとは、テキスト・画像・音声などの異なる形式の情報を、最初から一つのモデルとして統合して処理できる能力のことです。

 「ネイティブ」という言葉がポイントで、これは後付けで機能を組み合わせたものではないことを意味します。


従来の方法との違い

 従来(非ネイティブ)では、例えば画像を理解するとき、別の画像認識モデルが画像を分析してテキストに変換し、そのテキストを言語モデルが処理する、という「つなぎ合わせ」の構造でした。それぞれのモデルが独立していて、間に翻訳・変換のステップが入ります。

 ネイティブマルチモーダルでは、画像もテキストも音声も、最初から同じモデルの中で一緒に学習・処理されます。変換ステップがなく、異なる種類の情報が直接関連づけられます。


何が変わるか

 例えばMuse Sparkの場合、「スーパーで撮った商品棚の写真」と「高タンパクなものを選んで」というテキストを同時に受け取り、画像の中の文字・パッケージデザイン・栄養成分まで統合して理解したうえで回答できます。

 これを非ネイティブな構成でやろうとすると、情報の受け渡しの過程でニュアンスや細部が失われやすくなります。


簡単なたとえ

 通訳を介した会議(非ネイティブ)と、複数言語を直接話せる人が進行する会議(ネイティブ)の違いに似ています。通訳を挟むと速度も落ちるし、微妙なニュアンスも伝わりにくくなります。

テキスト・画像・音声などを、後付けで組み合わせるのではなく、最初から一つのモデルとして統合して処理できる能力のことです。変換ステップがないため、情報の損失が少なく、より精度の高い理解が可能になります。

なぜLlama4は失敗したのか

 Llama 4の失敗は、複数の問題が重なって起きたものです。


① ベンチマーク不正疑惑(最大の打撃)

 LMArenaは、Metaが提出したモデル「Llama-4-Maverick-03-26-Experimental」が一般公開されていないカスタマイズバージョンであり、人間の好みに最適化されていたと発表しました。

 このモデルはLMArenaのリーダーボードで2位にランクされましたが、実験的バージョンは絵文字が多用された冗長な回答を生成する傾向があった一方、一般公開されたバージョンは簡潔で絵文字がほとんど含まれていませんでした。

 さらに深刻なことに、退任間近のMetaの最高AI科学者であるYann LeCun氏が、Financial Timesへのインタビューで、Llama 4のリリース前にベンチマークテストの結果を改ざんしたことを認めました。チームがスコアを向上させるために、異なるテストプロジェクトに対して異なるモデルを使用していたことを明らかにしたのです。


② 実際の性能の低さ

 225のコーディングタスクを実行するベンチマーク「aider polyglot」で、Llama 4 Maverickのスコアが16%と、同等サイズの古いモデル(DeepSeek V3やClaude 3.7 Sonnet)を大きく下回ることが示されました。Redditユーザーも「信じられないほどがっかりした」と述べています。

 推論や数学のタスクで期待を下回り、競合のGemini 2.5やClaude 3.5と比較しても見劣りするケースが報告されました。


③ 動作環境の問題

 実行に高価なGPUサーバーが不可欠であることがAIの研究者やエンジニアには不評でした。既存のオープンモデルの多くが消費者向けのGPUで稼働できる規模に収まっていたからです。Llamaシリーズの魅力は「ローカルで動かせる」ことでしたが、Llama 4はその強みを失っていました。


④ 技術文書の不備

 Llama 4のリリースには包括的なテクニカルペーパーが伴わず、モデルの設計思想や学習手法の検証が困難でした。透明性を売りにしてきたオープンソース路線と矛盾する対応として、開発者コミュニティから強い批判を受けました。


結果

これらの問題が重なった結果、ザッカーバーグは2025年6月にAI部門の抜本的な再編を決断し、Meta Superintelligence Labsの設立へと動きました。性能の低さよりも、「不正をしてまでスコアを水増しした」という信頼の失墜が最も大きなダメージだったといえます。オープンソースコミュニティはMetaに高い透明性を期待していただけに、反発は特に激しいものでした。

ベンチマーク用に未公開の特別バージョンを使ってスコアを水増しした不正が発覚し、信頼を大きく損ねたことが最大の原因です。加えて実際のコーディングや推論性能も競合に劣り、動作に高価なGPUが必要だった点も開発者に不評でした。

コメント

タイトルとURLをコピーしました