字節跳動旗下豆包大模型團隊近日宣布,成功攻克混合專家模型(MoE)架構的關鍵瓶頸,并開源一項名為COMET的重大優化技術。該技術顯著提升了大模型的訓練效率,實現了高達1.7倍的效率提升,并有效降低了40%的訓練成本。
據介紹,COMET技術已在字節跳動的萬卡集群訓練中得到實際應用,累計節省了數百萬GPU小時的訓練算力。與近期DeepSeek開源的DualPipe等MoE優化方案相比,COMET具有更強的兼容性和便捷性,能夠像插件一樣直接接入現有的MoE訓練框架,支持業界主流大模型,無需對訓練框架進行侵入式修改。
技術數據顯示,引入COMET后,單個MoE層可實現1.96倍的加速,端到端平均效率提升1.71倍,且在不同并行策略、輸入規模及硬件環境下均表現出穩定的性能。更值得關注的是,COMET還能夠與DeepSeek的DualPipe方案聯合使用,有望進一步大幅壓縮模型訓練成本。
這項技術的開源,無疑為大模型領域帶來了新的突破,有望加速大模型的研發和應用。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。