暨南大學融媒體中心訊 近日,暨南大學信息科學技術學院AntLab實驗室崔林教授課題組的論文被IEEE計算機通信國際會議INFOCOM收錄。INFOCOM全稱為IEEE International Conference on Computer Communications,是IEEE組織在通信網絡領域的旗艦性會議,也是國際通信網絡領域的一大標志性會議(CCF推薦A類會議),具有極高的影響力,是全球網絡通信領域學者每年一度的盛會。INFOCOM 2025年的論文接受率僅為272/1458 = 18.65%。
該論文由AntLab實驗室的學生張邁(第一作者)和張效銓博士等合作完成,崔林教授為通訊作者,并與英國拉夫堡大學(LoughboroughUniversity)研究團隊開展合作。張邁同學是暨南大學信息科學技術學院碩士二年級學生,其研究方向聚焦于可編程數據平面與機器學習的深度融合。張效銓博士主要從事P4與可編程網絡、機器學習與智能網絡等領域的研究,發表論文8篇,其中CCF推薦A類論文4篇。
人工智能技術的快速發展對網絡基礎設施帶來了新的需求。以可編程數據平面(ProgrammableDataPlane,PDP)為核心的可編程網絡技術,通過開放可編程交換ASIC芯片的計算資源,利用其靈活可編程能力和高速數據轉發能力(Tbps級別的帶寬、納秒級的延遲),實現了對網絡流量的線速處理。智能數據平面(IntelligentDataPlane,IDP)則通過在PDP上部署機器學習模型,將PDP的高速數據包處理能力與機器學習的智能分析能力相結合,從而實現了更高效、更智能的網絡管理與優化。
但是,在可編程交換ASIC芯片上實現復雜機器學習模型,如卷積神經網絡(CNN)等,還面臨諸多挑戰。這主要是由于ASIC芯片的硬件Pipeline架構(如PISA)缺乏對浮點運算、乘法和除法的支持,以及Pipeline資源受限且不支持循環操作等。現有工作主要研究決策樹等簡單的機器學習模型,或者需要依賴額外設備(如FPGA)。本文克服了上述挑戰,提出的Quark是首個完全在可編程交換ASIC芯片上實現CNN的工作。
論文針對可編程交換ASIC芯片硬件資源受限問題,提出了一種結合模型壓縮技術的優化框架Quark實現了CNN模型在可編程交換ASIC芯片上的部署,并保證了CNN模型的高精度和低延遲推理。針對硬件Pipeline架構管道(如PISA)不支持浮點運算的問題,Quark提出了量化模塊,將CNN的卷積層和全連接層的參數從高精度浮點數(如Float32)轉換為低精度的定點整數(如INT8)。量化模塊通過統計比例因子和零點,將浮點數映射到定點整數范圍內,確保量化前后數值關系的一致性。量化后的模型能夠顯著降低硬件推理的計算復雜度,同時保持較低的精度損失。
在神經網絡推理工作流中,Quark設計了一個由解析器、反解析器、MATs和ALUs等多個基本操作組成的CNN推理模型。由于CNN的部分推理流程具有共性,可被抽象為多個基本單元組成的模塊化模型。針對PDP平臺支持的計算依賴鏈長度有限的問題,Quark提出了基于單元的模塊化CNN部署架構。通過在數據平面中部署CNN單元,并利用數據包克隆和循環操作在流水線內邏輯重組多個單元,Quark能夠完成復雜計算(如卷積操作)。解析器和反解析器負責數據包頭的解析和循環操作的執行。推理完成后,流水線會更新流索引中的預測結果。
特別地,本論文在基于Tofino ASIC芯片(3.2Tbps、12 stage pipeline),實現了Quark的原型系統的部署。實驗結果表明Quark在卷積層和全連接層矩陣運算量化中的有效性,以及模塊化CNN部署的靈活性,為資源受限場景下的CNN推理優化提供了全新的解決方案。
責編:常凱麗