中國聯通數據科學與人工智能研究院科技創新成果近日再度取得突破,提出并開源全新擴散模型加速框架LeMiCa(Lexicographic Minimax Path Caching),得到學術界認可,入選國際人工智能頂會NeurIPS 2025 Spotlight(全球超過2萬篇投稿中,僅3.1%入選)!不僅如此,還獲得了通義千問和智譜AI的傾情推薦,分別在其官方主頁上對LeMiCa進行展示!
NeurIPS(Conference on Neural Information Processing Systems,神經信息處理系統大會),是全球機器學習和人工智能領域最具影響力的學術會議之一,CCF-A類會議。內容涵蓋人工智能領域的機器學習、深度學習、計算機視覺、自然語言處理、AI for Science等多個領域方向。該會議由NIPS基金會主辦,始于1987年。NeurIPS的論文錄取率在20%-25%左右,spotlight的錄取率在3%-4%左右。

(論文入選)

(QWen-Image)

(智譜AI CogVideoX)
多模態生成模型“快”與“精”的兩難
當前,以谷歌 Nano-Banana、OpenAI Sora2 等為代表的文生圖、文生視頻模型正快速發展,但仍面臨“快”與“精”的兩難:快了質量差,精了速度慢,影響規模化應用。
廣泛使用的擴散模型(Diffusion Model)架構通過多步迭代采樣去噪生成內容,每步都需全量計算,導致生成耗時長、成本高。業界主流的局部貪心緩存(Local-Greedy Caching)優化方案,通過在線計算和閾值判斷實現緩存復用,精簡全量計算,但因只關注局部,采用“走一步看一步”策略,導致累積誤差,生成內容失真。
LeMiCa通過全局優化突破兩難瓶頸
中國聯通數據科學與人工智能研究院推出的LeMiCa方案,通過融合人工經驗與數據驅動的創新方法論,將推理速度提升 2 倍以上,同時保持高質量生成效果。
LeMiCa以全局視角優化生成路徑,最大限度減少累積誤差。研究院通過大量實驗發現,原始迭代采樣步驟具有可復用性,且蘊含可跨不同提示詞的全局規律,因此提出通過人工經驗離線解算全局最優路徑,與數據驅動的模型在線推理相結合,在不額外增加推理耗時的前提下,實現高效加速。
LeMiCa 相當于具備全局調度能力的“導演”,在提升生成速度的同時保持畫面質量、風格與細節的高度一致與連貫。

( LeMiCa 核心算法圖示)
實驗證實:近乎無損加速
視頻生成:在Open-Sora 、 CogVideoX等多項主流視頻生成模型上,在相近加速比下,LeMiCa生成的視頻在LPIPS、SSIM和PSNR等指標上均顯著超越主流方法,視頻質量無限接近原始視頻,實現高質量加速,如下圖。

在生成效果對比上,LeMiCa 僅用 10.86s 即可接近原始方法耗時26.54s生成的效果,質量明顯高于耗時接近的其他方案,體現出在算效比上的突出優勢。

圖像生成:LeMiCa 的加速理念同樣適用于文生圖任務,研究院在頂級開源模型 Qwen-Image 上實現高效推理適配。在生成速度提升 3 倍的情況下,圖像質量與語義一致性指標接近原始模型,并且加速性能與圖片質量均顯著優于主流方法,充分驗證了 LeMiCa 的通用性與高性能,如下圖。


(LeMiCa為Qwen-Image提供高效推理加速)
這些實驗結果驗證了LeMiCa在多模態生成任務的高效推理加速能力,可以用極低成本來直接對接現有的模型架構。這意味著,無論是圖片藝術創作、AIGC視頻平臺、數字人生成,還是工業設計、文創短片等場景,都可以輕松接入LeMiCa,實現低成本提速和高質量生成。
LeMiCa現已全面集成至聯通元景MaaS平臺,支撐文生圖、圖像編輯、文生視頻等多項模型服務,并在文創、品宣等多個行業場景中落地應用。









































