2026年4月22日下午,中国科学院大学工程科学学院(简称“国科大工学院”)邀请美国加州大学N. Sukumar教授,于雁栖湖校区教3-219教室为全校研究生带来一场题为“Shallow and Deep Neural Network Approximations”的学术讲座。本次讲座由力学所刘传奇老师主持,全校师生三十余人聆听了本次讲座。
讲座伊始,Sukumar教授首先介绍了神经网络的基础核心构成,从作为神经网络最小单元的感知机切入,阐述其作为线性二分类器的数学模型与生物神经元的关联,同时点出单个感知机无法解决异或这类非线性可分问题的局限性,进而引出单隐藏层神经网络的解决方案,并详细讲解了通用近似定理——只要隐藏层神经元数量足够多,单隐藏层神经网络搭配非线性激活函数,可实现对任意连续函数的任意精度逼近。
接着,Sukumar教授讲解了神经网络训练的关键要素与深度神经网络的核心逻辑。他对比了阶跃函数与Sigmoid、Tanh、ReLU、Leaky ReLU、Swish等常见可导激活函数的特性,说明非线性激活函数是神经网络解决复杂问题的基础;随后围绕数据拟合问题,讲解了均方误差(MSE)损失函数的定义,以及基于反向传播与梯度下降的神经网络训练流程;最后深入解析深度神经网络的数学形式与优势,指出深层网络通过函数复合,能以更高效率学习复杂函数映射,相比同参数浅层网络具备更强表达能力。Sukumar教授深入浅出的讲解,为同学们理清了思路,拓宽了眼界。
然后,Sukumar教授聚焦于物理信息神经网络(PINNs)的核心思想与求解流程。他指出PINNs是将物理方程嵌入神经网络的强大工具,可实现PDE的求解与发现,核心是把控制方程、边界条件和数据纳入损失函数,让神经网络学习过程遵循物理规律,无需标注数据即可实现无监督求解PDE。同时,他梳理了PINNs的完整求解流程,还介绍了PINNs在复杂几何、高维问题及反问题、参数化设计问题中的应用价值。
接着,Sukumar教授分析了神经网络求解PDE时精确施加狄利克雷边界条件的关键挑战及创新解决方案。传统方法通过损失函数软约束来近似满足边界条件,难以实现精确施加,从而在边界附近引入误差,并导致训练不稳定。他随后重点介绍了基于Wachspress广义重心坐标的超限插值试函数构建方法:Wachspress坐标在凸多边形上定义了一组具有良好性质的坐标函数,使得在顶点处的插值可以精确满足给定值。而超限插值则能构造出一个在整个多边形所有边上都严格匹配给定边界数据的函数B(x)。这两者的结合,为硬性施加边界条件奠定了理论基础。该方法通过分解解为满足边界条件的插值部分和边界上恒为零的神经网络修正部分,从数学上保证边界条件被精确满足。
最后,Sukumar教授通过数值算例分析了新方法的优越性。在一系列凸多边形区域上的拉普拉斯方程与泊松方程求解实验中,与传统基于近似距离函数的软约束方法相比,新方法在训练稳定性、收敛速度以及最终求解精度上均展现出数量级的提升。误差分析图清晰显示,新方法获得的解在边界上误差趋近于零,且误差在整个区域内均匀分布,很好地解决了传统方法边界误差集中、梯度异常的问题。
讲座在热烈的掌声中圆满结束,Sukumar教授的讲解为师生们提供了神经网络近似与PDE求解的全新思路,为相关领域的研究与应用开辟了新的方向。聆听了这样一场精彩的学术讲座,相信同学们必将获益匪浅。
文字:闫孟阳
图片:马佳慧、王钟震
审核:刘传奇