近日,由中國計算機學會(CCF)推薦的A類學術會議、人工智能領域頂級國際會議之一“NeurIPS 2025”(神經信息處理系統大會)公布論文錄用結果。中國電信人工智能研究院(TeleAI)共有7項成果被收錄,重點聚焦正激勵噪聲(Pi/π-Noise, Positive-incentive Noise)、具身智能,以及大模型推理加速、圖像生成、多模態理解,進一步推動人工智能技術創新并邁向產業落地應用。
作為機器學習和計算神經科學領域歷史最悠久、聲望最高的頂級國際會議之一,NeurIPS 涵蓋從深度學習、強化學習、計算機視覺、自然語言處理,到理論基礎、算法優化、倫理公平性等廣泛議題,是觀察 AI領域最新研究進展和未來趨勢的重要窗口。今年會議共收到 21575篇有效論文投稿,接收率為24.52%,五年來最低,競爭激烈。
在正激勵噪聲(Pi/π-Noise, Positive-incentive Noise)研究方向,TeleAI 提出 MIN(Mixture of Noise,噪聲混合)方法,通過引入有益噪聲和噪聲混合,解決基于預訓練模型(PTM)的類別增量學習(CIL)中的參數漂移(有害噪聲)問題,讓模型能夠持續學習新類別知識,但不遺忘舊類別知識,保持預訓練模型的泛化能力。
為了讓人形機器人能夠像人類一樣保持對身體的控制穩定性,并學習多種多樣的高動態人類技能,TeleAI推出具身不確定性規劃框架 CURE、高動態全身運動框架 KungfuBot、上下肢對抗訓練與協同框架 ALMI 三項創新成果。這些成果將提升機器人的穩定性和協調性,讓它們具備更靈活的運動能力及應對復雜高動態行為的模仿能力。
在進一步推動大模型落地的“最后一公里”方面,TeleAI 提出 CAS-Spec 算法和 NFIG 算法,分別針對文本生成和圖像生成,實現大模型的推理效率提升及成本節約。為打通數字智能與物理智能的連接,TeleAI 還推出面板理解與操作基準 PUO-Bench,并創新設計隱私保護框架 PPF,為物理設備的智能交互提供全面解決方案。
NeurIPS 與 ICML(國際機器學習大會)、ICLR(國際表征學習大會)并稱為機器學習領域內難度最大、水平最高的三大會議。作為央企新型研發機構,TeleAI 始終活躍在科學研究的最前線,在包括 NeurIPS、ICML、ICLR,及 ACM、ACL、AAAI 等人工智能領域的頂級學術會議屢創佳績。
TeleAI 構建了以AI治理、智傳網(AI Flow)、智能光電(包括具身智能)、智能體為核心的“一治+三智”戰略科研布局。結合智傳網(AI Flow),大模型、具身智能等前沿技術創新將得到加速發展。同時,本次入選 NeurIPS 2025 的研究成果,也將為TeleAI在智傳網(AI Flow)的研發提供基礎支撐,助力人工智能從理論前沿走向產業應用。
NeurIPS 2025 入選論文:
K. Jiang et al., "MiN: Mixture of Noise for Pre-Trained Model-Based Class-Incremental Learning", NeurIPS 2025.
S. Yin et al., "Towards Reliable LLM-based Robots Planning via Combined Uncertainty Estimation", NeurIPS 2025.
W. Xie et al., "KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills", NeurIPS 2025, arXiv:2506.12851.
J. Shi et al., "Adversarial Locomotion and Motion Imitation for Humanoid Policy Learning", NeurIPS 2025, arXiv:2504.14305.
Z. Ning et al., "CAS-Spec: Cascade Adaptive Self-Speculative Decoding for On-the-Fly Lossless Inference Acceleration of LLMs", NeurIPS 2025.
Z. Huang et al., "NFIG: Multi-Scale Autoregressive Image Generation via Frequency Ordering", NeurIPS 2025.
W. Lin et al., "PUO-Bench: A Panel Understanding and Operation Benchmark with A Privacy-Preserving Framework", NeurIPS 2025.