报告人:包承龙(清华大学)
时 间:2023年4月22日上午10:00-11:30
地 点:海韵园数理大楼天元会议室686
内容摘要:
Anderson mixing (AM) is a useful method that can accelerate fixed-point iterations by exploring the information from historical iterations. Despite its numerical success in various applications, the memory requirement in AM remains a bottleneck when solving large-scale optimization problems in a resource-limited machine. In this talk, we will discuss our work on short-term recurrent AM method that significantly reduce the computational burden. Various experiments on network training and will validate the effectiveness of the proposed method.
个人简介:
包承龙,清华大学丘成桐数学科学中心,助理教授。 2009 年本科毕业于中山大学数学系,2014 年博士毕业于新加坡国立大学数学系, 2015 年至 2018 年在新加坡国立大学数学系进行博士后研究。 其研究兴趣主要在数学图像处理的模型与算法方面,已在 IEEE TPAMI, SIIMS, SISC, ACHA等期刊和 CVPR, ICML, NeurIPS, ICLR 等会议上共计发表学术论文 30余篇。
联系人:白正简