
隨著運行人工智慧應用程式的基礎設施需求持續擴大,市場對 Alphabet(GOOG) 內部自研的 AI 晶片興趣急遽上升。在短短時間內,Google 的張量處理單元(TPU)已從單純的內部工具,轉變為吸引頂尖 AI 開發商甚至直接競爭對手目光的熱門產品。這項轉變與 AI 市場的廣泛趨勢息息相關,目前業界的焦點正逐漸從「模型訓練」轉向「推論」,也就是提供即時回應的處理過程。
專屬晶片成致勝關鍵,直接挑戰輝達訓練霸主地位
Google 高層指出,公司正在探索專為這些推論工作負載量身打造的新晶片設計,這顯示 Alphabet(GOOG) 正積極佈局,準備在下一波 AI 需求浪潮中搶下更大的市佔率。這項策略轉向將對競爭態勢產生深遠影響,儘管輝達(NVDA) 仍以其 GPU 稱霸 AI 訓練市場,但如今在推論領域正逐漸面臨日益激烈的競爭。Google 的核心優勢在於其垂直整合能力,成功將客製化晶片、大規模基礎設施與自家的 Gemini 等 AI 模型緊密結合。
大廠相繼投入推論賽道,晶片市場競爭恐將加劇
公司領導層認為,隨著工作負載不斷演進,專為訓練或推論量身打造的晶片將變得越來越重要,預期短期內就會有進一步的技術更新。與此同時,輝達(NVDA) 在取得源自 Groq 的相關技術後,也已經推出了專注於推論領域的專屬晶片產品,這意味著該細分市場的競爭非但不會趨緩,反而極有可能進一步白熱化。
巨頭卡位搶算力,Meta簽下數十億美元使用協議
目前的市場採用趨勢也印證了 Google 的戰略定位。其中,AI 新創公司 Anthropic 已取得高達 100 萬顆 TPU 的使用權限,而 Meta(META) 更是簽署了一項價值達數十億美元的長期協議,將透過 Google Cloud 平台持續使用這些晶片。此外,包含避險基金 Citadel Securities 與人工智慧公司 G42 等企業也展現出濃厚興趣,顯示 TPU 正被廣泛評估應用於各種商業場景,特別是與推論相關的任務。
擴大資料中心部署範圍,晶片供應鏈仍是未來隱憂
為了進一步擴大市佔率,Google 正積極調整策略以提高產品的可及性,包含測試將 TPU 部署至客戶的資料中心,並著手實現與外部軟體工具的相容性。然而,在 Alphabet(GOOG) 持續擴張其 AI 基礎設施版圖的過程中,晶片供應的限制,以及快速演進的 AI 模型與動輒數年的晶片開發週期之間所產生的不確定性,仍將是影響未來發展的關鍵變數。
發表
我的網誌