深度视觉算法的可信鲁棒学习——胡斌博士作通识教育讲座
发布时间: 2025-04-17 16:32:38 浏览量:
2025年4月15日下午2点,在金盆岭校区六教305室举行了一场题为《深度视觉算法的可信鲁棒学习》的通识讲座,由计算机学院胡斌博士主讲。讲座围绕深度学习在视觉领域中的应用与挑战,深入探讨了深度视觉算法的基本原理、发展演进以及当前面临的可信性与鲁棒性难题,引导大家走近该领域的研究前沿与探索路径。
讲座首先从“揭神秘面纱”的角度切入,生动介绍了人工智能与深度学习之间的关系,并系统回顾了深度学习从感知模型到多层神经网络的发展脉络。他特别指出,以卷积神经网络(CNN)为代表的深度学习模型,通过端到端的训练方式,能够自动从原始图像中学习与任务相关的有效特征,已在图像分类、语义分割、目标检测等任务中取得了突破性成果。讲座中通过AlexNet、ResNet、Faster R-CNN等经典模型的演进示例,让同学们深入理解了“深度”的内涵和算法设计背后的逻辑。
在讲解视觉算法应用的同时,胡斌博士着重指出,尽管当前深度学习模型在感知类任务中取得了令人瞩目的成绩,但仍存在诸多值得关注的问题,尤其是模型在实际场景下的“可信性”与“鲁棒性”问题日益突出。其通过图像分类中的对抗样本现象向大家展示了深度模型在面对微小扰动时预测结果剧烈变化的脆弱性,并引出了对抗攻击、模型不可解释性、泛化能力不足等深层挑战。
围绕“鲁棒性差”“对数据依赖强”“对未知场景适应性弱”等核心问题,胡斌博士介绍了当前研究中的若干前沿技术路径,包括贝叶斯深度学习、自监督学习、小样本学习、多模态建模与基础模型等。他特别介绍了近年来备受关注的Vision Transformer、Diffusion Models和CLIP模型,分析了它们在提高视觉模型泛化能力、减少对标签数据依赖、应对复杂任务需求方面的作用与优势。
在“探未解之谜”部分,胡斌博士指出,可信鲁棒学习的研究不仅是算法设计的问题,更涉及对模型安全性、解释性的深入理解与系统性评估。他鼓励同学们从“黑盒模型”的内部机制入手,关注模型为何容易受到攻击、为何对输入微小变化敏感,并尝试从训练策略、结构创新、跨层机制等维度提升模型的稳健性与可信性。
讲座最后,胡斌博士与同学们进行了积极的互动交流,耐心解答了大家在深度学习应用、科研选题与理论前沿方面的疑问。与会学生纷纷表示,本次讲座不仅加深了他们对深度学习基本理论和主流模型的理解,也激发了对人工智能可信鲁棒性方向的浓厚兴趣。讲座内容扎实、深入浅出,不仅为大家厘清了深度视觉算法的研究脉络,也为未来相关方向的学术探索提供了宝贵启发。
(图/胡斌 文/胡斌 一审/金帅 二审/张建明 三审/张锦)