當下人工智能技術正加速發展,滲透到云、邊、端和應用的各個層面,與海量 IoT 設備進行深度融合,不斷拓展應用場景。然而在 AIoT 場景中,嵌入式設備往往算力有限,難以承載龐大的 AI 模型。如何在資源有限的終端場景實現 AI 模型的有效部署,是加速 AI 落地的重要問題。AI 工程師們研發了各種試圖縮小模型大小并保持性能的辦法,例如量化和蒸餾。其中,模型量化是將浮點計算轉成低比特定點計算的一種模型壓縮技術,可以有效減少模型算力消耗并提升計算速度,當前已經在工業界發展比較成熟。
目前相對成熟的模型量化方案是 INT8 量化。以 ResNet-50 模型為例,原本需要用 float 32 表示的權重,量化后只需要使用 INT8 表示,通過這樣的處理,模型體積可以減少到原來的 1/2,再加上 TensorCore 的加持,還會有近 8 倍的網絡加速。而如果更進一步,將模型用 INT4 表示,可以帶來更多的速度提升。
為了推動低比特量化技術的發展,曠視天元 MegEngine 團隊開源了 INT4 的源碼實現,這也讓 MegEngine 成為首個開源 CUDA INT4 源碼實現的深度學習框架。MegEngine 采用均勻線性量化方案,實現了非對稱量化和對稱量化兩種 INT4 的數據類型,同時通過算子融合優化、kernel 優化等方法,使得量化后的模型可以依然保持較高的精度以及良好的運行速度。同樣以 ResNet-50 為例,INT4 相比 INT8 有 1.3 倍的加速。

具體代碼實現可以訪問 GitHub 鏈接(https://github.com/MegEngine/examples )了解詳情。
隨著 CUDA INT4 的開源,目前 MegEngine 框架不僅支持浮點數 FP32 和 FP16,而且支持 INT8 和 INT4 的對稱和非對稱量化推理。此外,MegEngine 框架開發了諸多工具,幫助用戶提升模型推理性能、簡化部署流程,包括自動代碼裁剪功能,支持用戶全自動的針對算子進行代碼裁剪;TracedModule 方案以及 MegEngine Lite,基于曠視海量業務打磨出的模型推理最佳實踐,化解模型轉換部署難題;流程管理工具 FastRun, 可以為每個計算自動選擇最快的算法,從而保證整個網絡的運行時間最短,讓 MegEngine 用戶運行不同的網絡時都能收獲最好性能。
自開源以來,MegEngine 不斷優化,已先后發布 29 個版本,推出一系列實用功能,降低 AI 算法生產門檻,助力 AI 應用快速落地。未來,曠視將繼續支持和擁抱開源,并將自身在開源領域積累的技術和經驗與業界共享,推動人工智能技術創新和行業發展。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。