人工智能国际会议(Association for the Advancement of Artificial Intelligence,简称AAAI)是人工智能领域的高水平国际会议,也是中国计算机学会(CCF)推荐的A类会议,致力于推动人工智能基础研究与应用创新的跨学科突破与发展。
AAAI 2026将于2026年1月20日至27日在新加坡举行,本届大会共收到23,680份有效投稿,最终接收论文4,167篇,录用率为17.6%。
随着深度神经网络(DNNs)因其“黑箱”属性而饱受诟病,且其在高性能人工智能(AI)系统中的应用日益普及,可解释深度学习(Interpretable Deep Learning, IDL)已成为构建结构性可解释(interpretable-by-construction)神经架构的重要研究方向。IDL 模型的核心思想在于学习一种潜在空间(latent space),使其中的部分表征与领域专家所熟悉的抽象信息单元(即“概念”,如“条纹纹理”、“圆形物体”等)实现对齐。通过引入**归纳偏置(inductive biases)**以确保预测基于这些可解释表征,IDL 模型能够构建出兼具强表达能力与高透明度的架构,从而支持对此类模型进行校验、分析与干预。
本教程旨在顺应 IDL 研究的激增趋势,向 AI 研究者与工程师介绍理解现有 IDL 模型底层通用原理的核心基础。我们致力于为与会者提供理解该领域海量文献所需的理论储备,助力其开展相关研究工作。具体而言,本教程将涵盖:(1) 核心可解释性原则;(2) 领域内开创性工作;(3) IDL 的前沿研究方向。此外,教程将全程穿插动手实践演示,并就该领域的关键开放性问题展开讨论。
背景要求 (Required Background)
本课程假定听众具备基础的机器学习知识(如监督学习基础、实验设计、基础概率建模等),并强调需拥有扎实的深度学习根基(如张量微积分、神经网络、反向传播等)。对于部分可能超出 AAAI 社区常规数学背景要求的进阶概念,我们将在教程中进行针对性的(重新)讲解。
教程期间涉及的所有相关资料及录像均可通过指定链接获取。
往届版本 (Previous Tutorial Iterations)
本教程的一个相关分支曾以“基于概念的可解释深度学习(Concept-based Interpretable Deep Learning)”为题在 AAAI 2025 举办。另一个更为相近的版本曾在 2025 年神经符号 AI 暑期学校(Neuro-Symbolic AI Summer School 2025)作为特邀报告呈现。 往届教程的详细资料(包括幻灯片与课件)请参阅此处。
专知便捷查看,访问下面网址或点击最底端“阅读原文”
https://www.zhuanzhiai.com/vip/dae137e0d25f9de59d71bfb4a484c875
点击“阅读原文”,查看下载本文