查看原文
其他

SSE WEEKLY COLLOQUIUM活动回顾 | 2021理工学院系列研讨会第五讲


2021年10月15日下午,理工学院Weekly Colloquium迎来了第五场系列讲座活动。本次活动由周艳教授主持,邀请嘉宾为张纵辉教授。张教授为我校师生带来题为 Decentralized Non-Convex Federated Learning 学术报告会。让我们一起看看本期讲座内容吧!


讲者简介

张纵辉教授分别于2003年与2008年自台湾清华大学取得电机工程学士与通讯工程博士学位。在2012年八月到2015年七月期间,他在台湾科技大学电子工程系担任助理教授。自2015年八月,张教授任职于香港中文大学(深圳)理工学院,担任助理教授,并于2018年八月担任长聘副教授。在担任教职以前,张教授先后在台湾清华大学(2008-2011)与美国加州大学戴维斯分校(2011-2012)担任博士后研究员。张教授的研究兴趣主要于通信系统与机器学习中的关键信号处理与优化方法。


张教授在2014年获得台湾科技大学年轻学者研究奖,2015年获得IEEE通信学会亚太区杰出年轻学者奖, 2018年获得IEEE信号处理学会最佳论文奖。他曾担任IEEE TRANSACTIONS ON SIGNAL PROCESSING 与 IEEE TRANSACTIONS ON SIGNAL AND INFORMATION PROCESSING OVER NETWORKS的编委(Associate editor)。目前,张教授是IEEE OPEN JOURNAL OF SIGNAL PROCESSING的编委,他也是IEEE信号处理学会通信与网络信号处理技术委员会(IEEE SPS SPCOM TC)的成员。


讲座内容

在本次演讲中,张纵辉教授介绍了三类分布式学习问题——分布式样本学习、分布式特征学习和混合数据学习,以及对应的算法和相关领域的最新进展。

受大规模信号处理和机器学习应用的推动,分布式优化方法在过去十年得到了广泛研究,而最近对数据隐私和安全的强调进一步促使无需对原始数据进行池化或交换的算法出现,如联邦学习(FL)。


随后,张教授依次介绍了三类分布式学习问题和对应的算法。


第一类为研究最广泛的分布式样本学习(LDS),相关算法有一致梯度下降法(decentralized gradient descent)、基于原对偶法(Primal-dual based method)和梯度跟踪方法(gradient-tracking based method)。这些方法启发了联邦学习的发展,如异构数据分布(heterogeneous data distribution)和方差缩减法(Variance reduction method)。


第二类为分布式特征学习(LDF),其中近端双重共识法(Proximal dual consensus method)多应用于成像处理中的多视图学习和多组学生物医学分析。

第三类为最具挑战性的混合数据学习(LHD),即利用和跟踪法(sum tracking method)解决混合数据模型(hybrid data model)问题。

最后,张教授总结了他们在非理想消息交换下提高学习算法鲁棒性的努力,以及未来在最优通信复杂度权衡、速率最优方案、模型压缩和隐私保护等方向的研究。


点击文末阅读原文,查看讲座演示文稿和录播哦!


下期预告


理工学院致力于营造校园科研学术氛围,在讲座结束后,师生共同享用精美的茶歇点心,并在轻松愉快的氛围中热烈讨论相关学术内容。小编也愈发期待下期10月22日由钱辉环教授带来的精彩学术报告!我们下周五不见不散哦!

感谢各位老师同学的大力支持和配合,如果大家对本系列活动有任何建议或意见,欢迎发送邮件至sse@cuhk.edu.cn,你们的建议将对本活动的持续发展提供帮助!


点击以下链接,进入理工时刻:

SSE WEEKLY COLLOQUIUM活动回顾 | 2021理工学院系列研讨会第四讲

SSE WEEKLY COLLOQUIUM活动回顾 | 2021理工学院系列研讨会第三讲

SSE WEEKLY COLLOQUIUM活动回顾 | 2021理工学院系列研讨会第二讲

SSE WEEKLY COLLOQUIUM活动回顾 | 2021理工学院系列研讨会启动第一讲

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存