TechNews Logo

Meta 晶片內用與雲端大廠策略差異?

Answer | Powered by TechNews Smart AI

Meta 正在加速其自研晶片 MTIA 系列的部署,最新代號「Artemis」的處理器已進入資料中心執行推理任務,旨在優化 Facebook 與 Instagram 的內容推薦系統。與 Google、亞馬遜及微軟等雲端大廠(CSP)不同,Meta 的策略更趨向「多軌並行」。除了與博通合作開發 ASIC 並委託台積電代工外,Meta 甚至打破競爭壁壘,計畫於 2027 年採購 Google 的 TPU 晶片,並自 2026 年起租用其雲端算力。這顯示 Meta 在追求算力自主的同時,並未打算完全脫離外部供應鏈,而是透過自研、租賃與採購 Nvidia GPU 的組合拳,試圖在 2026 年前建構出等效 60 萬顆 H100 的龐大算力池,以支撐其 Llama 模型與元宇宙願景。

Meta 的晶片策略反映出其從「純軟體服務商」轉型為「基礎設施投資者」的野心。相較於 Google 或微軟開發晶片是為了強化雲端服務的護城河,Meta 的核心動機在於極致化成本控制與特定工作負載的效率。由於 Meta 擁有龐大的社群推理需求,自研 ASIC 能比通用型 GPU 節省高達 40% 至 60% 的成本。值得注意的是,Meta 選擇導入英特爾 EMIB 封裝技術並與 Google 結盟,這代表其基礎設施已進入「投資組合管理」階段。這種靈活的策略能有效緩解 CoWoS 產能受限的風險,並利用不同架構的優勢(如 TPU 的規模化與 GPU 的通用性)來分散單一供應商的議價壓力,將算力成本從負擔轉化為長期的戰略資產。

back_icon 解鎖更多問題

參考資料