👉 结构风险最小化(Structural Risk Minimization)
结构风险最小化是深度学习中用于防止过拟合、提升模型泛化能力的重要策略。其核心在于平衡“经验误差”与“模型复杂度”。具体表现为通过引入正则化项或置信范围约束,限制模型的泛化误差边界,从而避免过拟合,提高模型在未知水文情境下的鲁棒性。
👉 假设空间限制(Hypothesis Space Constraint)
假设空间限制是指对模型能够表达的所有可能规律集合(假设空间)施加的约束条件。为了提升泛化能力,我们需要在优化损失函数的同时,对模型的“解空间”施加约束。通过物理先验知识限制函数集合,迫使模型仅在符合物理规律(如水量平衡、能量守恒)的范围内搜索最优解,从而剔除那些虽然在统计上拟合数据、但违反水文物理常识的解。
👉 贝叶斯推断(Bayesian Inference)
贝叶斯方法是处理水文不确定性的有力工具。它将参数视为随机变量而非固定值,通过后验概率(Posterior)=似然函数(Likelihood)×先验概率(Prior)的框架,将数据观测与先验知识有机结合。
👉 不确定性建模(Statistical Uncertainty Quantification)
不确定性建模是统计学与数据分析领域的重要方法,用于量化和处理数据及模型中的不确定性。模型预测不仅需要点估计,更需要区间估计。通过量化模型参数、输入数据及模型结构本身的不确定性,为目标决策提供可信度评估和风险控制边界。
👉 因果结构(Statistical Dependence Structure)
因果结构是描述变量之间因果关系的数学模型,用于揭示变量间的因果依赖关系。相关不等于因果,统计学约束致力于区分变量间的相关性与因果性,识别变量间的真实依赖结构,确保模型捕捉到的是真实物理机制,而非伪相关。
👉 可解释性(Identifiability & Interpretability Constraints)
深度学习模型的可解释性主要包含以下四个方面:模型可视化(
借助可视化工具,将模型内部的结构、参数以及数据在模型中的流动过程直观地呈现出来。如通过热力图展示卷积神经网络在图像识别时关注的图像区域,让我们能直观看到模型聚焦的重点;或者将神经网络的结构以图形化的方式展示,帮助我们理解神经元之间的连接关系和信息传递路径)、特征重要性分析(致力于确定输入特征对模型输出的相对重要性。如通过LIME(Local Interpretable Model - agnostic Explanations)和SHAP(SHapley Additive exPlanations)等方法对输入数据进行扰动,观察模型输出的变化,以此评估每个特征的重要程度。以文本分类任务为例,利用这些方法可以找出对分类结果影响最大的关键词,从而解释模型的决策依据)、可解释模型架构设计(研发本身具有可解释性的模型架构,替代部分黑箱模型。决策树模型便是一个典型例子,它的决策过程通过树状结构清晰展现,每个节点代表一个特征的判断条件,分支表示不同的判断结果,叶节点则是最终的决策类别,用户可以顺着决策树的分支,轻松理解模型如何基于输入特征做出决策 )和事后解释方法(在模型训练完成后,利用额外的模型或算法对其决策进行解释。如训练一个简单的线性回归模型,作为复杂深度学习模型的代理,通过分析线性回归模型的系数来解释深度学习模型的决策逻辑 )。
[文源:《打破黑箱:深度学习模型可解释性的攻坚之路》]