谷歌在推出其張量處理單元Cloud TPU v5p和具有突破性的超級計算機架構AI Hypercomputer時掀起了軒然大波。這些創新的發布,再加上資源管理工具Dynamic Workload Scheduler,標志著在處理組織的人工智能任務方面邁出了重要的一步。
Cloud TPU v5p,繼去年11月發布的v5e之后,成為谷歌最強大的TPU。與其前身不同,v5p以性能為驅動設計,承諾在處理能力方面取得顯著的改進。每個pod配備8,960個芯片,芯片之間的互聯速度達到4,800Gbps,這一版本在浮點運算每秒(FLOPS)方面提供了兩倍的性能,并在高帶寬內存(HBM)方面比前代TPU v4增加了三倍。

在性能方面的聚焦取得了顯著的成果,Cloud TPU v5p在訓練大型LLM模型時的速度比TPU v4提高了驚人的2.8倍。此外,利用第二代SparseCores,v5p展示了在嵌入式密集模型方面的訓練速度,比其前身快了1.9倍。
與此同時,AI Hypercomputer**作為超級計算機架構的一場革命性變革。它融合了優化的性能硬件、開源軟件、主要機器學習框架和可調整的消耗模型。AI Hypercomputer放棄了強化離散組件的傳統方法,而是利用協同系統設計,提高了在培訓、微調和服務領域的人工智能效率和生產力。
這一先進的架構基于超大規模數據中心基礎設施的精心優化的計算、存儲和網絡設計。此外,它通過開源軟件為開發人員提供了對相關硬件的訪問,支持諸如JAX、TensorFlow和PyTorch等機器學習框架。這種集成擴展到Multislice Training和Multihost Inferencing等軟件,同時深度集成了Google Kubernetes Engine(GKE)和Google Compute Engine。
AI Hypercomputer的真正獨特之處在于其靈活的消耗模型,專門滿足人工智能任務的需求。它引入了創新的Dynamic Workload Scheduler和像承諾使用折扣(CUD)、按需和Spot等傳統消耗模型的平臺。這個資源管理和任務調度平臺支持Cloud TPU和Nvidia GPU,簡化了調度所有所需加速器以優化用戶支出。
在這個模型下,Flex Start選項非常適合模型微調、實驗、較短的培訓會話、離線推理和批處理任務。它提供了一種經濟有效的方式,在執行前請求GPU和TPU容量。相反,Calendar模式允許預訂特定的啟動時間,滿足對培訓和實驗任務需要精確啟動時間和持續時間的要求,可提前8周購買,持續7或14天。
谷歌發布Cloud TPU v5p、AI Hypercomputer和Dynamic Workload Scheduler代表了人工智能處理能力的一大飛躍,引領著性能增強、優化架構和靈活的消耗模型的新時代。這些創新有望重新定義人工智能計算的格局,并為各行各業的突破性進展鋪平道路。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。