综合信息
学术活动
当前位置: 首页 -> 综合信息 -> 学术活动

2025教授讲坛(第46期)金龙:基于神经微分方程的网络结构与优化算法

发布日期:2025-10-11 来源:   点击量:

 目:于神经微分方程的网络结构与优化算法

主讲人:金龙

 间:2025年10月15日 下午2:30

 点:段家滩校区贵和楼514

主讲人简介:

金龙,兰州大学教授,入选国家级青年人才计划。分别于2011年和2016年在中山大学获得学士学位和博士学位,2016年至2017年在香港理工大学担任博士后研究员,2017年2月加入兰州大学,2020年入选兰州大学“萃英学者”特聘教授(考核优秀),2023年任香港城市大学计算机系访问教授。主持国家自然科学基金4项、国家重点研发计划课题、甘肃省自然科学基金重点/杰青、以及中国电子学会-腾讯Robotics-X项目(考核优秀)、CCF-百度松果基金项目等。多次入选爱思唯尔“中国高被引学者”;以第一完成人或者唯一完成人获得中国人工智能学会优秀博士学位论文奖励、吴文俊人工智能优秀青年奖励、甘肃省科技奖自然科学二等奖、中国自动化学会自然科学二等奖;指导的学生论文10多人次入选国家一级学会与甘肃省优秀博士硕士学位论文;1名博士生入选基金委优秀博士生项目;2名入选中国科协托举工程。目前担任包括IEEE TIE/TIV, Neural Networks, IEEE/CAA JAS,CAAI TRIT等多个SCI期刊副编辑等职务。研究兴趣包括神经网络、机器人、分布式系统和智能计算。

内容简介

深度神经网络与优化算法在现代信息科学与技术中具有举足轻重的地位。目前,深度神经网络的表达能力、可训练性、泛化性、鲁棒性等关键性能的机理认识尚不完全清楚;时变、受扰、非凸等复杂情况下的优化算法研究中还存在诸多挑战。本报告以神经微分方程为桥梁,从动力学角度在深度神经网络结构与优化算法建立联系,并为二者提供新的理解和方法。具体而言,本报告将深度神经网络的表达能力、可训练性、泛化性、鲁棒性等关键性能与神经微分方程中的阶数、一致性、迭代鲁棒性、零稳定性等核心概念建立联系,并提供了这些关键性能的高效提升方法。此外,通过针对时变、受扰、非凸优化问题构建神经动力学优化算法,显著降低了动态问题求解的滞后性,提升了噪声扰动下优化算法的鲁棒性,并通过协同求解的方式为非凸优化问题的收敛性提供了保证。