11月14日消息,英偉達北京時間13日發布了下一代人工智能超級計算機芯片,這些芯片將在深度學習和大型語言模型(LLM)方面發揮重要作用,比如 OpenAI 的 GPT-4。
新芯片相比上一代有了顯著的飛躍,將被用于數據中心和超級計算機,處理諸如天氣和氣候預測、藥物發現、量子計算等任務。
此次發布的關鍵產品是基于英偉達的“Hopper”架構的 HGX H200 GPU,是 *** GPU 的繼任者,也是該公司第一款使用 HBM3e 內存的芯片,這種內存速度更快,容量更大,因此更適合大型語言模型。
英偉達稱:“借助 HBM3e,英偉達 H200 以每秒 4.8 TB 的速度提供 141GB 的內存,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍。”
在人工智能方面,英偉達表示,HGX H200 在 Llama 2(700 億參數 LLM)上的推理速度比 *** 快了一倍。HGX H200 將以 4 路和 8 路的配置提供,與 *** 系統中的軟件和硬件兼容。
它將適用于每一種類型的數據中心(本地、云、混合云和邊緣),并由 Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 等部署,將于 2024 年第二季度推出。
英偉達此次發布的另一個關鍵產品是 GH200 Grace Hopper“超級芯片(superchip)”,其將 HGX H200 GPU 和基于 Arm 的英偉達 Grace CPU 通過該公司的 NVLink-C2C 互連結合起來,官方稱其專為超級計算機設計,讓“科學家和研究人員能夠通過加速運行 TB 級數據的復雜 AI 和 HPC 應用程序,來解決世界上最具挑戰性的問題”。
GH200 將被用于“全球研究中心、系統制造商和云提供商的 40 多臺 AI 超級計算機”,其中包括戴爾、Eviden、惠普企業(HPE)、聯想、QCT 和 Supermicro。
其中值得注意的是,HPE 的 Cray EX2500 超級計算機將使用四路 GH200,可擴展到數萬個 Grace Hopper 超級芯片節點。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。