智能与分布计算实验室
 

邱洋同学和王号召老师的2篇论文被TheWebConf2026录用
时间:2026-03-25


热烈祝贺邱洋同学和王号召老师的2篇论文被TheWebConf2026录用!


第35届国际万维网大会 (Proceedings of the 35th ACM Web Conference) 论文录用结果近日揭晓,IDC实验室共有2篇论文获得录用,其中王号召老师1篇,邱洋同学1篇。


1. 实验室2022级博士生邱洋同学的论文 Rethinking Graph Generalization through the Lens of Sharpness-Aware Minimization 被国际顶级会议 WWW 2026录用。论文在邹逸雄、王俊等老师的指导下完成。该论文聚焦图神经网络在分布偏移场景下泛化能力不足的问题,系统性地揭示了“最小偏移翻转”现象,即测试样本与训练样本高度相似时仍可能发生预测翻转。为解释这一现象,论文从锐度感知最小化的视角出发,提出用局部鲁棒半径来刻画模型对微小扰动的稳定性,并建立其与模型泛化能力之间的理论联系。在此基础上,进一步引入能量函数作为鲁棒性的可优化代理指标并提出一种能量驱动的生成增强框架,通过在潜在空间中进行能量引导扰动生成伪分布外样本,并结合校准训练提升模型的稳定性与泛化能力。大量实验表明,该方法在多个图分布外基准数据集上显著优于现有方法。


论文信息如下:

Yang Qiu, Yixiong Zou, Jun Wang. Rethinking Graph Generalization through the Lens of Sharpness-Aware Minimization. The ACM Web Conference 2026  (TheWebConf 2026). Dubai, United Arab Emirates, April 13-17, 2026.


2. 实验室王号召老师与张瑞教授及港科徐文超老师联合发表论文pFedDKS: Detached Knowledge Sharing for Personalized Federated Learning。该论文首次从理论探讨了个性化联邦学习中部分知识共享的底层机制,研究了一个重要但一直以来被忽略的问题:神经网络的特征提取器应该部分共享,还是全部共享?本文从理论和实验两方面证明,特征提取器应当部分共享而非完全共享。基于此,论文提出了一种名为 pFedDKS 的新方法,该方法通过提供分离的特征原型,将共享的全局知识与定制的本地知识解耦。在多种数据集和模型上的大量实验表明,pFedDKS 的性能优于现有的最先进技术。具体信息如下:


Haozhao Wang, Wenchao Xu, Jingzhi Wang, Yunfeng Fan, Xiaoquan Yi, and Rui Zhang. pFedDKS: Detached Knowledge Sharing for Personalized Federated Learning. The ACM Web Conference 2026  (TheWebConf 2026). Dubai, United Arab Emirates, April 13-17, 2026.


The Web Conference(TheWebConf)是数据挖掘、网络系统与应用交叉领域的顶级学术会议,也被CCF列为交叉/综合/新兴类的A类学术会议。自创办以来一直深受全球学者的广泛关注和认可,在计算机科学领域具有崇高的声誉。


在此,我们对邱洋同学和王号召老师论文的录用表示热烈祝贺!