智能与分布计算实验室
 

王成同学的两篇论文被RecSys 2023录用
时间:2023-07-18


热烈祝贺王成同学的两篇论文被RecSys 2023录用!


第17届推荐系统会议 (17TH ACM Conference Series on Recommender Systems (RecSys 2023)) 论文录用结果近日揭晓,IDC实验室王成同学的两篇论文被大会录用,论文在李瑞轩老师指导下完成。


论文1的题目是Data-free Knowledge Distillation for Reusing Recommendation Models。本研究探讨了在商业推荐模型经常重新训练带来的资源浪费和历史模型弃用问题,首次在推荐系统领域提出针对推荐模型复用的无数据蒸馏方法,并首次解决离散推荐数据无法求导的问题。同时为了提升在深度模型下使用无数据蒸馏方法产生的数据的多样性和高质量,分别提出梯度冻结和批规范化正则。本论文提出的方法在多个下游任务场景获得了SOTA性能。


论文2的题目是Gradient Matching for Categorical Data Distillation in CTR Prediction。本研究探讨了由于每天使用大量推荐数据训练模型带来的训练时长和实时模型部署之间的矛盾,本文利用梯度匹配方法,首次提出针对多属性特征的推荐数据的数据蒸馏模式,该方法极大的压缩了原始推荐数据,提升了模型在下游任务的训练效率和性能。同时为了解决训练过程的双重优化问题,提出单步梯度匹配方法,缓解了超参调节带来的模型训练困难问题。


论文信息如下:


1. Cheng Wang, Jiacheng Sun, Zhenhua Dong, Jieming Zhu, Zhenguo Li, Ruixuan Li, and Rui Zhang. 2023. Data-free Knowledge Distillation for Reusing Recommendation Models. The 17th ACM Conference on Recommender Systems (RecSys 2023), Singapore, September 18–22, 2023


3. Cheng Wang, Jiacheng Sun, Zhenhua Dong, Ruixuan Li, and Rui Zhang. 2023. Gradient Matching for Categorical Data Distillation in CTR Prediction. The 17th ACM Conference on Recommender Systems (RecSys 2023), Singapore, September 18–22, 2023


RecSys是去年中国计算机学会直升到CCF B的会议,今年接受率为18.7%。RecSys汇集了全球致力于推荐系统和相关领域研究的高等院校、科研机构和商业公司。它已经成为交流和讨论推荐系统研究成果的最重要的年度会议之一。


我们对王成同学论文的录用表示热烈祝贺!