您想知道的人工智能干货,第一时间送达
版权声明
转自CreateMind,版权属于原作者,用于学术分享,如有侵权留言删除ias in Machine Learning: A Literature Review
https://www.mdpi.com/2076-3417/14/19/8860摘要:
偏见可以被定义为对某一人群或群体存在倾向性偏好或反对立场,从而导致不公平现象。在计算机科学领域,这种现象被称为算法偏见或人工智能(AI)偏见,其表现为计算机系统中反复出现的错误倾向,进而产生"不公平"的结果。现实世界中的偏见与算法偏见相互关联,因为许多类型的算法偏见都源于外部因素。在不同领域中已识别出的人工智能偏见类型具有高度多样性,这种现状凸显了按偏见起源对其进行分类,并提供详细的识别与缓解方法概述的必要性。现有的算法偏见类型可以根据其起源阶段进行分类,因为偏见可能出现在机器学习(ML)生命周期的不同环节。本文通过文献研究方法,对现有偏见分类及相应的识别与缓解方法进行了系统性综述。本研究不仅提供了现成可用的偏见识别与缓解算法,还通过比较不同应用场景的相似性,增强了机器学习工程师对偏见的辨识能力。研究发现,某些类型的AI偏见在文献中已有较为充分的研究(包括识别与缓解方法),而其他类型仍需深入探索。本研究的整体贡献在于为机器学习工程师及相关人员提供了一套实用的指导方针,适用于机器学习模型的开发、评估和应用过程中的偏见管理。
关键词:偏见;算法;机器学习;人工智能;文献综述
1. 引言
偏见(Bias)是指由于错误的假设而倾向于产生带有偏颇结果的现象。在机器学习(ML)和人工智能(AI)的背景下,这种偏见可能是由于训练机器学习模型所使用的数据存在错误而导致的,也可能由后文将进一步分析的其他因素造成。无论是算法引起的还是其他原因导致的[1],偏见并不是一个新近才被发现的问题,研究界几十年前就已经认识到它的存在。回顾历史可以清楚地看到,偏见不仅一直存在,而且从人类存在的早期阶段开始就在其发展过程中扮演了——并且仍在扮演着——负面的角色。无论身处哪个时代,“偏见”的概念始终意味着缺乏内部有效性,或者是在某种暴露因素与预期结果之间的错误评估,使得实际结果与真实值并不相符[2]。
来自“外部世界”的偏见可以通过例如用于训练底层机器学习模型的数据渗透进人工智能系统中,从而影响这些系统的输出结果。本质上,偏见进入了人工智能系统之中,并且鉴于这些系统的应用正在呈指数级增长[3],识别并尝试通过人们手中掌握的各种工具、算法和方法来减轻偏见变得至关重要。最近的一项调查[4]毫不令人意外地显示,在使用人工智能工具时,公众最关心的问题之一就是偏见问题,与数据隐私并列关键议题之列。
在人工智能工具中,已有多个实例被发现由于输入数据和/或相应机器学习(ML)模型训练过程中的偏见而产生了错误的结果和预测,甚至这些工具已经被部署到生产环境中。更深入地来看,一个典型的例子是像 ChatGPT 这样的大型语言模型(LLMs),众所周知它们会从训练数据中继承偏见,因为这些数据本身并非没有偏见 [5,6]。这是 LLMs 的一个众所周知的问题,目前正在进行大量研究以尽量减少这种偏见。
计算机视觉(CV)算法和应用中也反复出现了偏见问题。例如,在 2020 年发现,Twitter(现为 X)用于裁剪图像的算法更倾向于突出浅肤色个体而非深肤色个体,同时它也更倾向于裁剪女性身体而不是她们的脸部,从而显示出种族和性别偏见的迹象 [7]。这并不是唯一一个类似的算法案例,谷歌和苹果开发的用于图像编辑的算法也表现出类似的行为 [8]。在这些情况下,训练数据同样是导致算法产生偏见的罪魁祸首。
另一个引发了美国全国性辩论的案例是一种名为 COMPAS 的工具,该工具被用作累犯预测仪器(RPI),旨在预测刑事被告在未来某一时间再次犯罪的可能性 [9]。人们发现该工具存在种族偏见,而且这种偏见不仅来源于训练数据,还与底层算法的运作方式有关 [10]。在 COMPAS 案例中,其算法的本质依赖于群体效应,而这些群体效应也是错误的,因为训练数据本身就带有偏见。法律关注的是个案,而非群体效应 [11];因此,COMPAS 中所使用的 ML 算法本身的性质也是导致其产生偏见结果的原因之一。
上述情况突显出在不同领域中减轻 AI 工具中可能出现的各种形式偏见的重要性,因为偏见的存在不可避免地会导致错误的决策。由于存在大量的不同类型的算法偏见,研究人员根据其特定特征对它们进行了分类,以便更容易地研究并提出相应的应对方法。其中一种涵盖所有不同类型 AI 偏见的分类方式是基于偏见的来源进行划分。
一般来说,AI 系统中存在的偏见(即算法偏见)通常可以来自三个来源。第一个来源显然是系统所使用的数据,例如,如果一个 ML 模型是在有偏见的数据上训练的,那么它将产生有偏见的结果 [12]。第二个来源是算法的设计及其运行方式。例如,如果所使用的算法不适合给定的问题,可能会导致输出结果出现偏见。再比如,优化算法中使用的目标函数可能为了最大化效用或最小化成本而引入偏见 [13]。第三个来源是人为偏见。当然,数据中存在的偏见也可能源自人为偏见。然而,在本文的语境中,“人为偏见”作为一个“高层次”的类别,指的是由开发和/或评估 ML 模型的人所带来的偏见 [14]。一个典型的例子是确认偏见,即 ML 工程师无意识地以某种方式处理数据,以支持初始假设或特定目标 [15]。
在相关文献中,已有许多尝试试图识别存在的各种形式的算法偏见,以引导相应的实现朝着无偏见的 AI 工具方向发展。为此,本论文总结了文献中已识别的不同类型的算法偏见,并将其归类为以下三类之一:数据偏见、算法偏见和工程师偏见,这三类也是机器学习生命周期的重要组成部分。除了偏见类型之外,本文还提到了文献中提出的相应缓解方法,从而为所有希望开发、评估和/或使用 AI 模型并希望识别和减轻模型中偏见的人提供了一本实用手册。此外,本文指出,大多数文献主要关注一种特定类型的偏见,即数据偏见,而完全忽略了机器学习生命周期中其他可能导致偏见的方面。因此,本文提出了未来的研究方向,强调应更好地研究和阐明机器学习生命周期中其他可能引入偏见的方面以及如何应对这些偏见。
本文其余部分的结构如下:第 2 节描述了为完成本文所呈现的全面文献综述所采用的方法。第 3 节报告了源于数据本身的算法偏见类型以及文献中提出的多种缓解方法。更具体地说,该节分析了文献中关于减轻数据偏见的一般方法,然后深入探讨了特定类型的数据偏见,包括认知偏见、选择偏见和报告偏见,并介绍了文献中提出的各类缓解方法和技术。第 4 节分析了由算法引起的算法偏见,以及对应的应对策略。更深入地,该节分析了估计器、优化器和不同的正则化方法如何引入偏见,并展示了不同领域中旨在找到最小偏见方法的比较研究。在本节中,还介绍并分析了一些具体的偏见缓解算法。第 5 节描述了由模型构建者和模型评估者引起的算法偏见,并研究了文献中提出的相应对策。第 6 节讨论了上述各节中提到的偏见缓解方法以及一些尚不明确、有待进一步研究的问题。同时还将本综述与其他类似综述进行了比较,并强调了本文的创新点和附加价值。最后,第 7 节总结了本文的主要发现,并就机器学习中的偏见识别与缓解提出了未来的研究方向。本文的各部分内容如表 1 所示。
2. 材料与方法
如引言部分所述,本论文旨在对机器学习(ML)中的偏见问题进行一次全面的文献综述,研究为识别和/或缓解整个机器学习生命周期中偏见现象而提出的相关方法与途径。更具体地说,在本文的语境中,机器学习生命周期包含三个(3)明确的阶段,每个阶段都存在特定类型的偏见:(i) 偏见可能来源于数据本身(即数据偏见 ),(ii) 偏见可能来源于所使用的机器学习模型(即算法偏见 ),或者 (iii) 偏见可能来源于开发和/或评估所生成机器学习模型的工程师(即工程师偏见 )。
在将机器学习生命周期划分为上述三类之后,我们识别了每一类别中可能出现的偏见类型。这不仅有助于对这些偏见进行定义,也有助于识别文献中提出的、能够应对这些偏见的相关方法。图1展示了在这三类中可能出现的各种偏见类型的概览。
在识别不同类型的偏见时,我们选择了四个(4)最广为人知的学术出版物数据库,分别是 ACM 数字图书馆(ACM Digital Library)、IEEE Xplore、Scopus 和 ScienceDirect。对于每个数据库,都生成了相应的检索查询语句。
相关研究的检索是基于这些研究的标题、摘要或关键词中是否包含特定的检索术语。对于数据偏见,检索术语包括相应偏见的名称(例如,“报告偏见”),短语“machine learning”(机器学习),因为本文关注的是旨在解决数据中偏见问题的机器学习方法,以及诸如“addressing”(应对)、“mitigating”(缓解)、“identifying”(识别)等词汇,以进一步限定检索范围,仅包括那些实际提出了识别和/或缓解数据偏见方法的研究。
关于算法偏见 ,更具体地说是估计器偏见 (estimator bias),使用了另一组检索术语。在估计器偏见方面,仅需要那些比较不同算法并同时考虑偏见因素的研究。因此,使用了“bias”(偏见)、“comparative study”(比较研究)、“review”(综述)等作为检索术语。
类似地,在优化器偏见 (optimizers’ bias)方面,使用的检索术语包括“bias”、“optimizer”(优化器)、“hyperparameter”(超参数)和“neural network”(神经网络)。“hyperparameter”这一检索词的使用是为了将检索范围限定为将优化器视为神经网络超参数的研究,而非泛指所有优化算法的研究。
至于由正则化技术 引起的偏见,采用了类似的策略,检索术语包括“regularization”(正则化)、“machine learning”,以及一些广泛使用的正则化技术的名称。
最后,关于工程师偏见 ,目前并没有专门从机器学习工程师角度,而非一般研究人员角度出发探讨此类偏见的研究。因此,针对这种特定类型的偏见及其子类型,没有进行具体的文献检索,而是在本文对应的章节中对其进行了理论框架的分析。
每种偏见类型及每个出版物数据库所执行的完整检索查询列表如表 2 所示。
在获取相关研究文献后,首先进行了一步清理工作,即从所收集的文献列表中移除重复的研究。随后,根据三个(3)纳入标准(Inclusion Criteria,简称 IC)和一个(1)排除标准(Exclusion Criterion,简称 EC),进一步缩小了文献范围。只有符合上述纳入标准的研究才会被纳入本次文献综述的分析范围。
更具体地说,所采用的纳入标准与排除标准如下:
- IC#1 :该研究应包含一种特定的方法论,无论是理论框架还是技术方法/算法,用于识别和/或缓解偏见。
- IC#2 :该研究在比较不同算法或优化器时考虑了算法偏见的因素。
- IC#3 :该研究解释了为何选择某一特定的算法/优化器/正则化方法。
- EC#1 :该研究未经过同行评审(peer review)。
其中,IC#1 和 EC#1 适用于与三种偏见类别(即数据偏见、算法偏见和工程师偏见)相关的所有研究;IC#2 专门适用于与算法偏见的两个子类型——估计器偏见(estimator bias)和优化器偏见(optimizer bias)相关的研究;而 IC#3 则适用于与算法偏见(包括正则化引起的偏见)相关的研究。
图 2 展示了本研究为筛选用于分析的文献所遵循的过程,该流程此前也已简要介绍。
3. 数据偏见
如前所述,导致机器学习模型产生偏见结果的一个主要原因在于训练这些模型所使用的数据本身也存在偏见。数据偏见主要与数据的选择和收集方式以及数据本身的性质有关。因此,可以识别出三种类型的数据偏见:报告偏见 (reporting bias)、选择偏见 (selection bias)和认知偏见(cognitive bias)。
除了将在下文中分析的、用于应对特定类型数据偏见的方法之外,还有一些通用性较强 (scenario-agnostic)的技术可用于减少数据偏见。这些技术大多针对的是类别不平衡数据集 (即某一类标签在数据中出现的频率远高于其他类别),其目标是通过欠采样 (under-sampling)或
过采样(over-sampling)来降低数据集中的偏见 [16]。
在欠采样 中,属于多数类的数据样本数量被减少;而在过采样 中,属于少数类的数据样本数量被增加 [17]。一种常见的欠采样方法是应用聚类算法对不平衡数据集进行聚类,然后根据每个样本所属的聚类结果,移除多数类中的部分样本 [18]。其他可用的欠采样技术包括随机欠采样 (random under-sampling)和Tomek 链接欠采样 (Tomek links under-sampling)。顾名思义,随机欠采样是随机选择保留的观测样本数量 [19]。而 Tomek 链接欠采样则是识别彼此“重叠”的数据样本,从而去除位于类别“边界”上的多数类样本 [20]。
在过采样 方面,主要有两种方法:合成少数类过采样技术 (SMOTE)和自适应合成采样(ADASYN)。SMOTE 首先识别少数类样本,然后选择最近邻,并通过连接该少数类样本及其对应的最近邻生成一个合成的数据样本 [21]。至于 ADASYN,它与 SMOTE 类似;然而,它会根据少数类的分布情况生成不同数量的合成样本,从而提升学习性能 [22]。
此外,还存在适用于多类别数据集的过采样方法,例如基于马氏距离的过采样 (MDO)和自适应马氏距离过采样 (AMDO),分别适用于数值型数据和混合型数据 [23]。
3.1 认知偏见(Cognitive Bias)
认知偏见主要与数据本身的性质有关。例如,来自社交媒体帖子的文本数据很可能会反映出撰写这些帖子的人的认知偏见。这种类型的偏见在大型语言模型(LLMs)中被多次识别出来 [24],因为这些模型通常就是使用这类数据进行训练的。
需要特别指出的是,这种由人类引起的偏见与机器学习模型开发者和评估者所带来的偏见并不相同。虽然两者都源于人类,但前者与数据相关,而后者则与机器学习模型的实现和评估过程相关。
已有多个研究尝试在文本数据中识别认知偏见,如文献 [25] 所展示的方法。在这篇论文中,作者试图自动检测《2016年认知偏见编码表》[26] 中列出的188种认知偏见,并测试其在人工生成和AI生成文本数据中的表现,取得了令人鼓舞的结果。然而,作者也指出,他们还需要更多的参与者提供反馈作为“真实标签”,以更好地评估该方法的准确性。
在另一项同样聚焦于文本数据的研究 [27] 中,作者提出了一种基于本体的方法——自动偏见识别(Automatic Bias Identification,简称ABI),用于缓解文本数据中的认知偏见。ABI 的核心思想是通过分析用户过去做出的决策,来判断他们当前做出的新决策是否包含认知偏见。本质上,该工具基于用户的决策历史,对新的决策是否具有偏见进行布尔分类(有偏见/无偏见)。
在文献 [28] 中,作者旨在通过允许用户向机器学习模型提供反馈,并检验这些反馈是否会增加或减少模型未来决策的方差,从而识别四种类型的认知偏见。
文献 [29] 提出了 BiasEye 工具,旨在识别并缓解文本数据中的认知偏见,特别是来自简历(CV)的文本数据。BiasEye 基于一种机器学习方法,模拟个体筛选偏好,从而提升信息透明度与可访问性,增强对认知偏见的认知。类似地,在文献 [30] 中,作者针对来自简历的文本数据提出了一个三步式缓解认知偏见的方法:预处理、处理中和后处理。
具体来说:
- 在预处理阶段 ,他们测试了三种技术:优化预处理(OPP)、重加权-采样-调整(MRS)和差异影响降低(DIR);
- 在处理中阶段 ,他们采用对抗去偏(AD)和偏见消除器(PR);
- 在后处理阶段 ,他们测试了等概率后处理(EOP)、校准等概率后处理(CEOP)和拒绝选项分类(ROC)。
实验结果显示,DIR + AD + EOP 组合效果最佳,但计算复杂度较高;而在不使用 AD 的情况下,准确率略低但仍较理想。
文献 [31] 提出将因果分析结果整合到模型中,以缓解认知偏见。作者认为,结合知识发现机制和数据驱动方法,有助于避免认知偏见的产生。
在另一项研究 [32] 中,作者提出了一种不仅能识别还能缓解认知偏见的方法。他们使用了一个模块来修改导致认知偏见的数据属性,并通过测量 KL 散度值来评估效果。该方法在计算机视觉相关的图像数据集上进行了测试,展示了良好的应用前景。
文献 [33] 则提出了一种不同的方法,用于缓解医学领域 LLMs 中的认知偏见。在该研究中,作者建议“提醒”模型输入的问题可能导致输出答案中存在某种认知偏见。这种方法并未改变原始训练数据,而是基于训练数据可能存在偏见这一假设,使模型对输出答案进行相应调整。
所有已提出的用于识别和/或缓解认知偏见的方法详见表 3。
3.2 选择偏见(Selection Bias)
在数据中可以识别出的另一种偏见是选择偏见 。当所选的数据样本不能反映真实世界中的数据分布时,就会发生选择偏见 [34]。在这种偏见的范畴下,存在多种子类型偏见,例如抽样偏见、流失偏见、自我选择偏见、幸存者偏见、无应答偏见和覆盖率不足偏见 [35]。
通常情况下,通过在对目标人群进行抽样和设计相应研究时采用适当的技术,就可以避免选择偏见,从而理解数据样本与目标人群之间的关系 [36]。除了在研究初期阶段之外,在数据已经收集完成之后也可以对选择偏见进行处理。
为实现这一目的,文献中提出了若干方法,其中主要是统计方法 。这些统计方法包括 delta 方法、线性缩放、降水的幂变换 [37]、经验分位数映射、伽马分位数映射以及伽马-帕累托分位数映射 [38]。选择偏见在历史气候相关数据中非常常见;因此,上述方法广泛应用于诸如降雨-径流过程等相关的实际案例中 [39]。
在文献 [40] 中,作者提出了一种用于识别环境观测数据中选择偏见的方法,并介绍了两种技术。第一种方法基于指数族成员在任意非零概率集合上的唯一性;第二种方法依赖于选择前真实生成分布的不变性。作者声称这两种方法都能有效识别受选择偏见影响的变量。
同样地,在文献 [41] 中也提出了一种缓解环境时间序列数据中选择偏见的方法。该方法包含两个交叉验证迭代:外层用于识别使预测器产生最小残差平方和(RSS)的一组变量;内层则通过网格搜索识别对应于最小 RSS 的最优超参数。
在计算机视觉领域,文献中可以找到三种应对选择偏见的方法:
- 文献 [42] 提出使用一种因果正则化逻辑回归 (CRLR)模型来分类包含未知选择偏见的数据。该模型由一个加权逻辑损失项和一个精心设计的因果正则化项组成。
- 文献 [43] 展示了改进的三元组损失(ATL)方法。ATL 中引入了一个匹配损失项,以减少所有可能三元组与所选三元组之间的分布差异,从而最小化选择偏见。
- 文献 [44] 主要针对医学图像,提出了一种称为重新校准特征补偿 (RFC)的技术。RFC 使用重新校准的分布来增强少数群体的特征表示,通过限制不同样本视角之间的特征分布差距来缓解选择偏见。
在医疗健康领域,还有五种方法被提出:
- 文献 [45] 指出,电子健康记录(EHRs)中存在的选择偏见(由于缺失值导致),可以通过应用逆概率加权 (IPW)调整技术来减轻。此外,作者还利用链式方程填补其他缺失特征,说明数据清洗技术也有助于缓解数据偏见。
- 文献 [46] 同样使用数据清洗来应对选择偏见。设置了一个30%的缺失值阈值:若某一特征缺失超过30%,则将其剔除。此过程旨在确保每个特征具有大致相同的缺失数量。此外,由于数据来自不同规模的医院,数据集也被裁剪,以保证每家医院的记录数量相同,防止大型医院主导整个数据集。
- 文献 [47] 提出了基于团(clique)的因果特征分离(CCFS)算法,理论上保证最大团或其余因果骨架即为目标结果的所有因果特征集合。
- 文献 [48] 针对医学问答(Q&A)任务,提出标签重置 方法,以避免选择偏见对医学文本数据的影响,同时保留文本内容及其语义信息。
- 文献 [49] 提出了并测试了四种倾向得分方法,包括一对一有替换匹配、IPW 以及两种基于双重稳健(DR)估计的方法,后者结合了结果回归与 IPW。
- 文献 [50] 也使用了 IPW,并采用两阶段流程:首先使用分类模型,然后用其重加权结果作为回归模型的输入,本质上增强了数据集中代表性不足的记录权重,降低了代表性过高的记录权重。
- 文献 [51] 引入了一种用于模型选择的群体公平性度量——“分类之间限定面积”(ABC),该方法基于项目反应理论(IRT)和差异项目功能(DIF)特性曲线,旨在识别选择偏见,并展示了良好的效果。
除了上述方法之外,文献 [52] 还提出了一种名为 Imitate (Identify and Mitigate Selection Bias)的工具,用于缓解选择偏见,并已发布为 Python 模块 [53]。该方法的核心思想是:算法首先计算数据集的概率密度,然后添加生成的点以平滑该密度。如果数据点集中在某些区域而未广泛分布,则可能是数据集中存在选择偏见的迹象。
然而,Imitate 算法假设数据集中每个类别仅存在一个正态分布的簇。为此,文献 [54] 中的作者提出了 MIMIC (Multi-IMItate Bias Correction),该方法以 Imitate 为基础模块,但能够处理多簇数据集,其假设真实数据由一组多元高斯分布组成。尽管这一假设具有一定的局限性,但 MIMIC 相比于 Imitate 能够适用于更多类型的数据集。
在另一项研究 [55] 中,作者讨论了推荐系统中的选择偏见问题。这是一个在推荐系统中常见的问题,因为这类系统高度依赖用户的历史行为数据 [56]。他们提出的方法包括一种数据填充策略,利用与用户无关的物品(items)并基于时间可见性(temporal visibility)来进行补全。
所有已提出的用于识别和/或缓解选择偏见 的方法详见表 4。
3.3 报告偏见(Reporting Bias)
在数据中可能遇到的另一种偏见是报告偏见 。这种偏见在语言模型(LMs)中非常常见 [57],已有大量研究表明 RoBERTa 和 GPT-2 等语言模型会因训练数据本身的问题而放大报告偏见 [58]。
为了解决这一问题,文献 [59] 中的作者提出了一种基于神经逻辑的 Soft Logic 增强事件时序推理模型 (SLEER),用于缓解从自由文本中提取的时间常识 (TCS)知识所带来的报告偏见。在另一篇论文中,作者关注的是文本-图像数据集以及其中可能出现的报告偏见 [60]。他们提出了双模态增强 (BiAug)方法,通过生成对象-属性对来减少重复模式的过度表示。然而,由于使用了语言模型,这种数据(即对象-属性对)的生成在计算资源上代价较高。作者建议可以通过并行处理等技术来缓解这一挑战。
在一项类似的研究中,作者聚焦于图像数据 [61],提出可以通过使用标签频率 来去除报告偏见。这些频率指的是所有正例中每个类别中标记为正的样本比例,使用动态标签频率估计 (DLFE)进行估算,从而提高了去偏过程的准确性。
同样地,在文献 [62] 中,作者建议在训练数据集中添加一个新的变量,用于描述每张图像中除标签外所展示的内容。这种方式结合了人类判断和算法理解两方面的优势,展示了良好的应用前景。
在另一项研究 [63] 中,作者专注于人脸识别任务,并对五种算法进行了实验,分别是:逻辑回归(LR)、线性判别分析(LDA)、K近邻(KNN)、支持向量机(SVM)和决策树(DT)。根据实验结果,DT 在应对数据中存在的报告偏见方面表现最佳。
在网络安全领域,文献中也提出了两种方法,分别针对威胁分类和恶意软件检测。第一种方法利用四种技术来缓解数据中的报告偏见,包括协变量漂移、核均值匹配、Kullback–Leibler 重要性估计程序(KLIEP)和相对密度比估计 [64]。第二种方法中,作者在训练和测试所实现的卷积神经网络(CNN)之前,以不同的方式将可用的私有和公开数据集进行划分。训练和测试采用互不重叠的方式进行,并使用不同的时间尺度,从而缓解训练数据中的报告偏见 [65]。
在文献 [66] 中,作者使用一种称为重复测量相关性 (RMCorr)的统计技术,通过对每位受试者采集多个样本,避免来自健康相关数据的报告偏见。
文献 [67] 的作者则主要关注数据收集阶段,通过显式调整与患者接种疫苗意愿相关的调查回答来避免报告偏见。随后,这些回答被用来训练一个随机森林(RF)算法,以预测特定患者是否会按时接种疫苗。
文献 [68] 中的方法也聚焦于数据收集阶段,以缓解潜在的报告偏见。在此案例中,作者使用了一款名为音频计算机辅助自我访谈 (ACASI)和计算机辅助个人访谈 (CAPI)的软件(https://acasillc.com/acasi.htm , 2024年3月22日访问),以提供一个安全、私密且保密的环境,从而提高人们对涉及敏感行为(如非法药物使用)等问题的回答诚实度。
在完全不同的领域中,文献 [69] 的作者试图估计大学辍学率,提出了一种名为 Disc-Less (无歧视)的方法,该方法基于高级过程优化器(ADOPT)实现。
在另一个类似案例 [70] 中,作者尝试预测大学生是否会挂科,并比较了三种算法:逻辑回归(LR)、Rawlsian 和协作上下文老虎机(CBB)。LR 准确率最高,但容易产生偏见;Rawlsian 是一种公平性算法,但在本案例中未能有效消除偏见;CBB 则由两个梯度上下文老虎机组成,不仅能缓解数据中的报告偏见,而且相比其他基线模型(如学习公平表示 LFR 和对抗学习公平表示 ALFR)更易于实现。
文献 [71] 提出了一套完整的工具包,允许用户比较十三种机器学习算法,使用十二种评估指标,并执行显著性检验以减少报告偏见。该工具包的结果令人鼓舞,但目前仅应用于航空航天预测数据。
文献 [72] 引入了 Bosco 来处理不平衡的生物学数据。Bosco 的核心思想是为多数类样本分配不同的重要性评分,从而缓解数据中的潜在偏见。
对于时间序列数据,文献 [73] 的作者比较了两种已知的技术——分位数映射 和幂变换 ,以修正来自多个区域气候模型的数据。结果显示,幂变换优于分位数映射,因为其修正后的数据提升了模型的准确性。
文献 [74] 中,作者建议使用隐私保护型分布式智能 (Privacy-Preserving Decentralized Intelligence)来避免偏见,即在一个自主实体网络上训练机器学习模型,而不暴露训练数据。除了模型训练之外,数据分析也可以以分布式方式进行,这也有助于缓解偏见。
在文献 [75] 中,作者聚焦于金融数据及其可能存在的报告偏见,无论这种偏见是源于人为错误还是故意欺诈行为。他们提出了一种混合方法,结合了领域专家的输入和香农熵分析,以评估专家所提供的信息。
最后,在文献 [76] 中,作者为了识别社交媒体数据中的报告偏见,比较了几种传统机器学习算法,包括朴素贝叶斯(NB)、逻辑回归(LR)和支持向量机(SVM)。其中 SVM 在识别数据中的偏见方面表现最佳,表明其可作为识别文本数据中报告偏见的有效工具。
所有已提出的用于识别和/或缓解报告偏见 的方法详见表 5。
3.4 数据偏见的通用缓解技术
根据上述研究结果,数据偏见存在一些共性问题,同时也有相应的缓解技术可以应用。更具体地说,如本节开头所述,无论具体应用场景如何,有一些通用的技术可以用于应对数据偏见,例如欠采样 (under-sampling)和过采样 (over-sampling)。
而对于与具体应用场景相关的解决方法来说,数据偏见的主要问题主要集中在自然语言处理(NLP)、计算机视觉 和医疗健康领域 。受数据偏见影响较为普遍的领域及其在文献中已提出并上文所介绍的相应解决方案如图 3 所示。
通过比较上述提到的技术,从它们所应用的领域来看,可以注意到像欠采样(under-sampling)、过采样(over-sampling)、差异影响降低(DIR)、对抗去偏(AD)和拒绝选项分类(ROC)等方法是适用于缓解数据偏见的有趣候选技术,无论是在哪个领域。此外,逆概率加权(IPW)在处理文本数据时也是一种有用的技术,并且也可以应用于多个领域,因为相关数据是文本数据。至于图像数据,存在一些特定的技术,这些技术不仅适用于这种类型的数据,还可以应用于多个领域,例如医疗健康领域,因为相关数据是图像数据。
4. 算法偏见(Algorithm Bias)
4.1 估计器(Estimators)
除了上述提到的源于数据的偏见之外,偏见也可能由于所使用的机器学习(ML)模型而产生。首先,导致偏见的最明显原因之一是选择了不适合给定任务的算法(即,估计器),例如使用线性模型对非线性数据进行预测。另一个原因是,在特定任务(例如分类任务)中,一个算法可能在某些用例中表现优于其他算法,但在其他用例中却表现不佳,这与对应数据的性质有关。为此,已经发表了多种比较研究,这些研究比较了多个机器学习算法,并试图通过最小化结果中的偏见来提出最适合特定用例的算法,从而最大化预测的准确性。
在介绍上述比较研究之前,应该对稍后将提到的每个估计器提供简要描述,以便本文的读者能够更好地理解后续内容。在下文分析的比较研究中被比较的算法名称,以及这些算法的简要描述,如表 6 所示。算法按字母顺序排列。
在介绍了本节将讨论的算法之后,现在我们来分析相应的比较研究。从农业领域开始,文献 [117] 中的作者比较了三种用于估算土壤有机碳(SOC)含量的算法:随机森林(RF)、支持向量机(SVM)和 Cubist。根据实验结果,提出了一种结合所有三种算法的集成方法,因为它在建模 SOC 时减少了整体偏见,无论光谱测量条件如何变化。
在文献 [118] 中,作者比较了几种强化学习算法(包括 SWO、VBSS、BCO 和 TD)在调度问题中的表现。他们得出结论,SWO 表现最佳,因为它是专门设计用来解决此类问题的。
关于用于预测细菌异养代谢通量的生物数据,文献 [119] 的作者测试了 SVM、KNN 和决策树(DT),并得出结论:SVM 是最适用于该用例的算法,因为它实现了最高的准确率。
在商业领域,文献 [120] 中的作者测试了多项朴素贝叶斯(MNB)和卷积长短期记忆神经网络(CLSTM NN),用于客户评论分类。他们的结果显示,CLSTM NN 更适合这一分类任务,因为 MNB 产生了偏见——它只学习了一个类别,而忽略了其他类别,这是因为训练数据是不平衡的。
在类似的研究 [121] 中,作者比较了 RF、SVM 和一个深度神经网络(DNN),用于基于运动学、动力学、电流和温度数据预测装配线上的机器是否会故障。尽管 SVM 减少了模型的过拟合和偏见,但它未能达到理想的准确率;而 DNN 不仅提高了准确率,还显著降低了偏见。
在文献 [122] 中,作者处理海洋系统的时间序列数据,并对一组算法和方法进行了实验,包括 STL 分解、ESM、ARIMA、线性回归(LinearR)、KNN、SVM、向量自回归(VAR)、决策树(DT)以及结合上述方法的集成方法。作者建议应避免使用集成方法,因为它们计算成本较高。他们还认为,在存在大量缺失值的时间序列中应使用 VAR,而在没有缺失值的情况下则应选择 ARIMA。
在一项计算机视觉问题的研究 [123] 中,作者使用遥感数据(例如卫星数据)测试了 RF、极端随机树(ET)和梯度提升回归树(GBRT)。在这三种算法中,ET 在准确率方面表现最好,而 GBRT 表现最差。
文献 [124] 研究了 XGBoost、LightGBM 和 GEP 在钢纤维混凝土质量估计中的应用。尽管它们都能产生合理的预测,但考虑到梁深效应等关键因素,GEP 被选为剪切强度预测的最佳方法。
文献 [125] 的作者对 CART、ANFIS、SVM 和多层感知器神经网络(MLP NN)进行了实验,用于水文气象时间序列预测。他们得出结论:CART 算法非常有用,因为它在 Nash–Sutcliffe 模型效率系数(NSE)、Kling–Gupta 效率(KGE)和百分比偏差(PBias)等指标上表现最佳。
在另一项与环境相关的研究 [126] 中,作者训练了一个全连接神经网络、一个卷积神经网络(CNN)和一个 LSTM 神经网络用于地震数据分析。结果显示,CNN 和 LSTM 在均方误差(MSE)和统计偏见方面都表现极为出色。
文献 [127] 中的作者使用一组算法预测账户持有人是否能按时偿还贷款。这些算法包括 DDQN、SVM、KNN、RF 和 XGBoost。根据这项比较研究的结果,KNN 在预测准确率方面优于其他所有算法,而 DDQN 提供了有趣的结果,为在类似用例中应用其他强化学习技术铺平了道路。
在医疗健康领域,已有多个比较研究对多种算法和数据集进行了实验。文献 [128] 的作者比较了逻辑回归(LogR)、神经网络(NN)、随机梯度下降(SGD)、RF、朴素贝叶斯(NB)、KNN 和 DT,并在多个开源数据集上进行训练,最终得出结论:基于准确率、精确率、召回率和 F1 分数等评估指标,LogR 表现最佳。文献 [129] 中的作者在识别临床科学案例中刻板患者特征的背景下比较了 LinearSVC、LogR、MNB 和 RF,得出结论:当 LogR 与 TF-IDF 结合使用时,在此类用例中表现尤为出色。文献 [130] 的作者使用 Cox 回归和神经网络预测 COVID-19 感染结果。虽然两者都达到了较高的准确率,但神经网络的区分能力更强。在文献 [131] 中,作者测试了 SVM、神经网络和朴素贝叶斯用于白血病检测,并发现 SVM 在分类准确率方面表现更优。文献 [132] 的作者使用了 23 个医学数据集,并对神经网络、深度神经网络、C4.5、朴素贝叶斯、KNN、逻辑回归和 SVM 进行了实验,以找出最适合医学数据集的算法。根据他们的研究结果,SVM 是医学数据集中表现最好的算法。同样地,文献 [133] 测试了 LogR、DT、RF 和神经网络。神经网络在单个类别上具有更高的准确率,但由于受到数据集中偏见的影响,其在其他类别上表现不佳。因此,作者认为 RF 在所有类别上的综合表现最佳。在文献 [134] 中,作者比较了 SVM 和 DT。在这种情况下,DT 在软组织肿瘤诊断中略优于 SVM,但对参数总数更为敏感。对于医学图像,文献 [135] 的作者比较了非循环神经网络和 LSTM 神经网络,得出结论:基于 LSTM 的方法在预测准确率和 F1 分数方面优于非循环神经网络。在情感分析方面,文献 [136] 实验了大量基于神经网络的架构,如 CNN-Bi-LSTM、LSTM、Bi-LSTM、CNN 和 GRU,以及非神经网络算法如 RF 和 SVM。根据他们的研究结果,CNN-Bi-LSTM 在准确率方面表现最优。最后,在关于智能家居传感器数据自动活动识别的研究 [137] 中,作者使用了一个不平衡数据集,比较了 C-SVM、CRF 和 LDA。研究表明,CRF 对主导类别的过拟合更为敏感,而 SVM 在类别准确率方面优于其他两种方法,使其成为该特定用例的可行方法。
所有已开展的、考虑偏见因素的算法比较研究详见表 7。这些比较研究按照各自所涉及的领域进行字母顺序排序。
在相关文献中,还存在一些专门开发用于缓解偏见的算法,因此它们可以帮助减少由估计器(如上文所述)所引起的偏见。一个典型的例子是对抗去偏
(adversarial debiasing)。对抗去偏基于对抗学习 (adversarial learning),其核心思想是同时训练一个预测器 (predictor)和一个判别器(discriminator):前者的目标是准确预测目标变量,而后者的目标是预测受保护变量(例如性别)。对抗去偏的目标是在最大化预测器对目标变量预测能力的同时,最小化判别器根据预测结果来预测受保护属性的能力 [138]。
此外,在文献 [139] 中还提出了该方法的一个联邦学习版本 (federated version),不仅解决了与训练数据相关的隐私问题,而且实现了与集中式版本几乎相同的性能。
另一种在训练估计器时有助于应对偏见、从而确保公平性的机制是公平性约束 (fairness constraints)。公平性约束防止分类器输出与数据中存在的受保护/敏感属性相关联的预测结果 [140]。已有许多相关方法被提出,例如文献 [141] 中的方法,作者使用了一种关于决策边界(不)公平性的直观度量,在处理具有多个敏感属性的数据集时实现公平性约束。类似地,文献 [142, 143] 中提出的方法也能处理多个敏感属性,但未考虑“差异影响”的商业必要性条款 [144]。
此外,在文献中还存在一种称为变分自编码器 (variational autoencoders)的神经网络架构,它能够在多个敏感属性下实现子群体的人口统计学平等性(demographic parity),从而减少偏见 [145]。
还有其他一些常用于偏见缓解的方法,包括对比学习 (contrastive learning)[146] 和神经风格迁移 (neural style transfer)[147]。其中,对比学习利用对比信息估计器来控制估计器的平等性,通过限制数据表示与受保护属性之间的互信息实现;而神经风格迁移是一种图像到图像转换的方法,在处理偏见和提升公平性的背景下,它可以将输入域映射到一个公平的目标域。
4.2 优化器(Optimizers)
除了选择合适的估计器(即算法)之外,在选择优化器 和正则化类型 时也必须格外小心,因为它们都可能在输入数据是否存在偏见的情况下,导致算法决策出现偏见 [148]。
关于优化器,它们是神经网络中用于改变模型属性(如权重和学习率)以最小化损失函数的算法。文献中提出了多种优化器,其中最常用的包括:
- 随机梯度下降 (SGD)及其变体:带梯度裁剪的 SGD(SGD with GC)
- 动量法 (Momentum)及其变体:Nesterov 动量
- Adan
- AdaGrad
- RMSProp (均方根传播)及其变体:NRMSProp、SMORMS3
- Adam (自适应矩估计)及其变体:Nadam、AdaMax、AdamW(带有解耦权重衰减的 Adam)
SGD 适用于无约束优化问题。当对存储空间要求低且计算速度要求快,并且数据可能是非平稳或含噪声时,SGD 是首选 [149]。然而,SGD 是最基本的优化器之一 [150]。此外,学习率的选择并不容易,如果未仔细调优,可能会导致无法收敛 [151]。
为了克服标准 SGD 收敛速度慢的问题,提出了带梯度裁剪的 SGD(SGD with GC)[152]。两者的关键区别在于,在使用公式 (1) 更新模型参数之前,若梯度的范数超过指定阈值,则对其进行裁剪。通过这种方式,增强了 SGD 的稳定性,并在更多情况下保证了收敛性 [153]。
动量法 是一种“加速”神经网络训练过程的优化技术,最早在 [154] 中被研究。与上述梯度下降优化器不同,该方法不直接更新机器学习模型的权重,而是引入一个称为“动量项”的新变量,通过计算梯度的移动平均来更新权重,从而引导优化器的搜索方向 [155]。动量技术已被应用于上述提到的 SGD 优化器,形成了 SGD with Momentum 变体。SGD with Momentum 比没有动量项的 SGD 更快,通常性能更优 [156]。
正如上文所述,动量法的一个变体是 Nesterov 动量 [157]。在 Nesterov 动量中,其核心思想是利用前面提到的“动量项”预测下一次权重的位置,从而允许优化器采取更大的步长,同时尝试确保收敛 [158]。
最近提出的一种使用 Nesterov 动量的优化器是 Adan [159]。Adan 已在多个用例中进行了测试,包括自然语言处理(NLP)和计算机视觉(CV)等深度学习任务,表现优于当前其他可用优化器。其源代码可在 [160] 获取。
另一种结合了 AdamW 和 Nadam 等优化器优点并使用 Nesterov 动量的优化器是 AdaPlus[161]。AdaPlus 已在卷积神经网络(CNN)相关的计算机视觉任务中进行评估,并与最先进的优化器进行了比较,展示了良好的效果。其源代码可在 [162] 获取。
另一个在机器学习和深度学习中广泛使用的优化器是 AdaGrad [163]。AdaGrad 用于基于梯度的优化,其核心思想是根据特征的更新频率调整每个特征的学习率。如果某个特征频繁更新,说明它在数据集中频繁出现,AdaGrad 将为其分配较小的学习率;反之,若特征很少更新,则说明其稀有,AdaGrad 会为这些特征分配较高的学习率。这使得 AdaGrad 成为处理稀疏数据时的理想选择 [164]。
尽管如前所述,AdaGrad 使用自适应学习率,但它对初始设置的全局学习率仍较敏感,可能导致无法达到理想的局部最优 [165]。为解决这一问题,文献中提出了包括 Adadelta 在内的多种 AdaGrad 变体。Adadelta 与 AdaGrad 的主要区别在于,它不需要手动设置学习率 [166]。具体而言,Adadelta 利用“增量更新”,通过计算过去梯度的均方根(RMS)与过去更新量的 RMS 的比值来自适应地调整学习率。因此,在 AdaGrad 无法达到理想解的场景下,Adadelta 可能表现更好 [167–169]。
另一个 AdaGrad 的变体是 RMSProp 。RMSProp 的核心思想——也是其与 AdaGrad 的关键区别——是将每个权重的学习率除以该权重近期梯度大小的滑动平均值 [170,171]。文献 [172] 提出了一种 RMSProp 的变体 NRMSProp ,它使用了 Nesterov 动量。实验表明,NRMSProp 的收敛速度比 RMSProp 更快,而复杂度增加不多。
RMSProp 的另一个变体是 SMORMS3 [173]。SMORMS3 特别适用于深度神经网络(DNN),尤其是在梯度波动较大的情况下,它可以防止学习率变得过小,从而避免优化过程变慢 [174]。
另一个在文献中提出的优化器是
Adam 。Adam 结合了 AdaGrad 和 RMSProp 的优点,能够处理稀疏梯度,也不需要目标函数是静态的 [175]。它内存需求极低,因为它只需要一阶梯度信息。提出 Adam 的作者在同一论文中还提出了 AdaMax ,它是基于无穷范数的 Adam 变体。另一个变体是 AdamW (带解耦权重衰减的 Adam),它引入了一个衰减速率,以便在优化过程中通过权重衰减实现正则化 [176]。
在相关文献中,也有一些研究专门对一组优化器进行实验,以找出最适合特定用例的优化器,同时也考虑了偏见减少的效果。
例如,文献 [177] 中的作者提出了一种神经网络架构用于估算作物需水量。为最小化方法中的偏见,他们测试了 SGD、RMSProp 和 Adam 优化器。根据实验结果,他们选择了 SGD,因为它提高了神经网络的准确性,而且实现简单。
在另一项类似的研究 [178] 中,作者试图预测巴西南部的霜冻情况,并测试了 SGD 和 Adam。他们发现使用 Adam 的实验具有更高的变异性,准确率略低于 SGD。
文献 [179] 也对 Adam 和 SGD 进行了比较,其中作者开发了一个用于人力资源分析(特别是员工流动率预测)的神经网络。根据预测准确率,Adam 是更优的优化器。
在另一项预测电力消耗的研究 [180] 中,作者在其神经网络架构中测试了 Adagrad、Adadelta、RMSProp、SGD、Nadam 和 Adam。根据他们的结果,在给定的 LSTM 架构和数据集下,SGD 是最合适的优化器。
文献 [181] 的作者旨在评估验证码(Captcha)的漏洞,他们构建了一个神经网络并对 Nadam、Adam 和 Adamax 进行了测试。他们得出结论,Nadam 是最优优化器,因为它达到了最高的准确率。
在类似的人脸表情识别研究 [182] 中,作者测试了 Adam 和 SGD。他们认为 Adam 是更合适的优化器,因为它使 CNN 在面对未见过的数据时具有更好的泛化能力。
这两类优化器也被一起测试于糖尿病数据的神经网络中 [183],同时还包括 Adagrad 和 RMSProp。结果显示,RMSProp 在最短时间内实现了最高准确率,因此是最优选。
在另一项癫痫检测的研究 [184] 中,SGD 与 RMSProp 进行了比较,结果表明 SGD 准确率最高。
最后,在文献 [185] 中,作者开发了一个用于网络异常检测的 LSTM 神经网络,并测试了七种优化器:Adam、Adagrad、Adamax、Ftrl、Nadam、RMSProp 和 SGD。结果显示,Nadam 是最优优化器,因为它实现了最高的准确率。
所有已开展的、考虑偏见因素的优化器比较研究详见表 8。
根据上表,比较每种方法所选用的优化器,并理解在何种情况下使用哪一种优化器更为合适,从而最小化模型中引入的偏见,这将是很有意义的。总体而言,Adam 优化器 比 RMSProp 收敛更快,且内存需求更少,而 SGD 的收敛速度较慢。然而,SGD 能够收敛到更优的解,并且在泛化能力上优于 Adam [186]。
至于 Nadam ,正如前文所述,它是 Adam 的一个变体,其收敛速度略快于 Adam,因此训练时间更短。上述提到的优化器也总结在表 9 中。
选择合适的优化器并不是一个简单或直接的过程,必须对此给予高度重视,以尽量减少可能引入的偏见。为了实现上述目标,通常建议根据具体用例的需求(如训练时间和计算资源)尝试多种不同的优化器,并监控训练参数,以决定最终应选用哪一种优化器。
4.3 正则化(Regularization)
正如前文所述,除了优化器的选择之外,在选择正则化方法时也应给予同等程度的重视,以避免算法产生偏见结果。正则化是一组用于应对过拟合 (overfitting)的技术和方法。过拟合是机器学习中常见的现象,指的是模型在训练数据上表现良好,但在面对未见过的数据时泛化能力较差 [187]。
正则化方法通常会引入一定的偏见,因为它们需要增加正则化项的权重 [188]。在此有必要引入并解释“偏差-方差权衡 ”(bias–variance tradeoff)的概念。如前所述,在机器学习中,偏差(bias)衡量的是预测值与真实值之间的差异;方差 (variance)衡量的是模型在不同应用场景下预测值之间的差异。方差过高意味着模型在未见过的数据上无法准确预测 [189]。换句话说,高方差表示测试和验证阶段出现误差,而高偏差则表示训练阶段出现误差。同时降低偏差和方差并不总是可能的,这就导致了正则化技术的引入,其目标是以增加偏差为代价来降低模型的方差 [190]。然而,最近的一些研究指出上述观点并非完全正确,因为在某些情况下,可以同时降低偏差和方差 [191]。
为了实现这一目标,文献中提出了多种正则化技术。
首先,在使用线性模型的机器学习问题中,可以应用三种不同的正则化方法:Lasso 回归 (L1)、岭回归 (L2)和弹性网络正则化 (Elastic Net)。Lasso 引入了一个惩罚高系数值的正则化项,并实际上从模型中移除了高度相关的特征 [192]。Lasso 与 Ridge 的主要区别在于后者对高系数值的惩罚较小,因此不会从模型中移除特征 [193]。至于弹性网络正则化,它结合了 Lasso 和 Ridge 方法,将对应的惩罚项加入到平方误差和(SSE)损失函数中,从而解决了共线性问题并实现了特征选择 [194]。
在其他机器学习问题中,例如对象识别、语音合成和时间序列预测,正则化也可以通过数据增强(data augmentation)、早停 (early stopping)、Dropout 和权重衰减 (weight decay)等形式进行。
数据增强 是指通过对原始数据样本进行人工生成新的训练数据,以丰富模型的训练过程 [195]。这是深度学习中非常常见的技术 [196],尤其是在文本和图像数据处理中 [197]。文献中提到的数据增强主要包括两类:数据包装 (data wrapping)和过采样 (oversampling),两者在特定用例中都取得了不错的效果。然而需要注意的是,训练数据和测试数据的质量不可避免地会影响数据增强的效果,因此对于这些数据分布所做的假设必须有充分依据 [198]。不当的数据增强技术可能会引入偏见,但也有可能缓解来自数据集的偏见,这一点已在多项研究中得到验证 [199–202]。
早停法 是另一种广泛应用于模型训练的正则化技术 [203]。具体而言,早停法指的是限制迭代次数(即 epoch 数量),并在验证误差开始上升之前,训练模型直到达到最低的训练误差。此外,如文献 [204] 所讨论的那样,早停法还可以通过帮助模型处理噪声数据,提高机器学习算法,特别是神经网络的准确性。
除了早停法外,在神经网络中还有两种常用的正则化策略:Dropout 和 权重衰减 (weight decay)。
关于 Dropout ,它是通过随机改变神经网络结构,使模型避免对未见数据的过度泛化 [205]。虽然这个概念简单,但仍需对超参数(如学习率和隐藏层中的单元数量)进行微调,才能真正对模型有益 [206]。
至于 权重衰减 ,它与 Dropout 相似,但不同之处在于前者以指数方式惩罚神经网络的复杂度,而后者则是以线性方式 [207]。在文献中提出的多种权重衰减方法中,最新的包括 Selective Weight Decay(SWD) [208] 和 Adaptive Weight Decay(AdaDecay) [209]。
值得一提的是,许多文献中存在将权重衰减与 L2 回归混淆的情况,也有部分文献明确区分了二者。未来的研究应澄清这一问题,以避免这两个概念之间产生混淆。
已有大量研究利用上述正则化技术进行了实验。更具体地说,Lasso 回归曾与随机森林(RF)算法结合,用于长链非编码 RNA 的分类任务 [210]。文献 [211] 中,作者比较了早停法与贝叶斯正则化在预测纯离子液体蒸气压的神经网络架构中的效果,结果显示后者在泛化性能方面优于前者。
在计算机视觉任务方面,文献 [212] 提出了两种 Dropout 变体:Biased Dropout 和 Crossmap Dropout ,它们都能显著提升卷积神经网络(CNN)的表现。类似地,文献 [213] 使用了权重衰减(也在 [214] 中使用)和 Dropout,用于面部情绪识别的 CNN 架构中,使其达到了更高的准确率。另一项涉及地质数据的计算机视觉任务中,作者在其开发的 CNN 模型中采用了 CutOut 和 CutMix 两种数据增强作为正则化手段 [215],成功降低了训练损失和验证损失,其性能可媲美使用特定领域模型的迁移学习方法。此外,文献 [216] 利用了 Lasso 的一种变体进行图像分类任务,并证明该方法虽然略逊于其他正则化技术,但所需的特征更少即可达到相近效果。
在能源领域,文献 [217] 在一个线性回归模型中使用了 Lasso 正则化来进行时间序列预测;而在另一项研究 [218] 中,则采用了一种名为 自适应弹性网络 (Adaptive Elastic Net)的弹性网络子类,用于多层级回归模型估计住宅能耗。文献 [219] 研究降雨径流预测时,使用了早停法和权重衰减,从而在保证预测最高准确率的同时减少了整体训练时间。
在医疗健康领域,也有大量研究使用了不同类型的正则化技术。例如,文献 [220] 将 Lasso 正则化与回归模型结合,用于急性髓系白血病(AML)完全缓解(CR)患者的预处理方案亚组识别。文献 [221] 使用了 Lasso 的一种变体,用于基于图像的头颈部位定位的非线性回归分析。弹性网络分别在文献 [222] 和 [223] 中被用于磁共振成像(MRI)数据结合逻辑回归和线性回归模型,均在分类准确率方面取得显著成果。弹性网络的一种变体——调整自适应正则化逻辑回归 (AAElastic)也被用于癌症分类任务 [224],同样表现出优异的分类性能。
关于 Dropout,文献 [225] 中使用的 CNN 模型用于脑肿瘤分割任务;文献 [226] 则在一个基于 MRI 图像预测脑龄的 CNN 模型中结合了 Dropout 和数据增强,取得了最先进的结果。文献 [227] 在帕金森病诊断任务中,结合 Dropout 和 L2 回归用于 CNN-LSTM 分类器,也取得了良好的效果。
在交通领域,Lasso 回归已被多种方法所采用。文献 [228] 中使用 Lasso 来评估来自车辆数据的短期和长期交通政策影响。文献 [229] 则在同一正则化方法下,基于时间、起点和终点站等不同参数,估计公共交通工具的拥挤程度。
在预测交通事故严重程度的任务中,如文献 [230] 所示,Lasso 与线性回归模型结合使用,也展现了良好的效果。此外,在网络流量分析的背景下,文献 [231] 证明了 Lasso 在估计日常网络需求时,能够在偏差与方差之间取得良好的平衡。
最后,在另外两个通用场景的研究中,作者分别使用了早停法 [232] 和 L2 回归 [233]。在第一项研究中,所使用的神经网络采用了 SGD 优化器,其偏见通过早停法得到了缓解;而在第二项研究中,作者使用了一个单层神经网络,其偏见则通过应用 L2 回归得以减少。
所有关于正则化技术并考虑偏见因素的研究详见表 10。
根据上表,比较每种方法所选用的正则化技术,并理解在何种情况下使用哪一种技术更为合适,从而最小化模型中引入的偏见,这将是很有意义的。
一般来说,当数据集包含大量特征时,Lasso 是一个较好的选择,因为它还能进行特征选择,尤其适用于大多数系数为零的情况。而 Ridge 则更适合于大多数系数不为零的情形 [234];弹性网络(Elastic Net)是两者的结合,当 Lasso 和 Ridge 无法提供理想结果时可以考虑使用。
数据增强 主要适用于图像和文本数据,在需要增加训练样本数量的情况下尤为有效。
Dropout 在使用复杂神经网络结构处理相对简单的数据集时更具优势;否则更倾向于使用 权重衰减[235]。
最后,早停法 通常应被普遍采用,无论神经网络架构如何,其停止点应设置在模型开始过拟合之前。
上述提到的正则化技术也总结在表 11 中。
4.4. 常见的算法偏见缓解技术
根据上述提到的研究结果,存在一些可以应用于缓解由机器学习(ML)算法引起的偏见的常见缓解技术。这些技术包括对抗性去偏、公平性约束、变分自编码器、对比学习和神经风格迁移。通过比较上述提到的技术,很明显,公平性约束是一组在训练模型时确保公平性的限制条件;而对抗性去偏是基于同时训练两个模型的方法,变分自编码器、对比学习和神经风格迁移则是一系列完全不同的算法和架构。所有这些技术主要关注于缓解与数据集中受保护属性(如性别或种族)相关的偏见。关于之前提出的机器学习算法、优化器和正则化技术的比较研究,最常用的估计器、优化器和正则化技术的总结如图 4 所示,作为第 4 节的总结。
影响机器学习(ML)模型引入偏见的第三个因素是负责训练和/或评估这些模型的 ML 工程师。ML 模型构建者容易受到隐性偏见的影响,这种偏见发生在工程师基于自己的经验和个人信念对模型做出假设时,而这些假设并不一定适用于一般情况 [236]。文献中存在大量隐性偏见,其中最常见的一种是在训练和/或评估 ML 模型时出现的确认偏见(confirmation bias)。在确认偏见中,ML 工程师会无意识地处理数据并训练 ML 模型,以证实他们的初始假设或普遍信念 [237]。
确认偏见是一种认知偏见,因此,已经提出了多种试图缓解它的技术。这些技术主要是理论框架,它们不专门针对 ML 工程师,而是针对分析师的一般群体 [238]。在 [239] 中提出了一种缓解确认偏见的计划,建议分析工作应以团队合作为基础,分析师应在解决问题之前交换想法。在 ML 模型训练领域,这可以转化为与其他 ML 工程师讨论可能解决 ML 问题的方案,这些工程师可能有不同的视角,从而导致基于多个工程师的视角而非单一视角的多样化方法和技术来解决特定问题。另一种减少确认偏见的方法被称为“考虑对立面” [240]。在 ML 的背景下,这意味着工程师不会持续训练模型,直到结果与他们的初始假设一致,从而避免所谓的实验者偏见 [241]。
ML 工程师在模型评估阶段也可能引入偏见。更具体地说,文献中提出的许多方法并未采用适当的统计方法来评估所提出的 ML 模型 [242]。特别是在神经网络(NN)架构中,k 折交叉验证(即,将原始数据样本随机划分为 k 个等大小的子集)经常被忽视,尽管众所周知,模型参数的每次不同随机初始化都会极大地影响模型的结果 [243]。此外,许多方法未能将开发的 ML 模型与零模型(即基准模型)进行比较。例如,在分类植物图像时达到 95% 的准确率是微不足道的,而对于预测一个人是否会患癌症的模型来说,同样的准确率则具有重大意义。除此之外,还缺乏第三方评估,许多在文献中提出的 NN 架构无法得到验证 [244]。总体而言,由于图 5 所示的原因,ML 工程师可能会在其方法中引入偏见。
为了缓解模型评估中的这些问题,文献 [242] 的作者提出了一项三步行动计划,包括统计验证结果、训练一个数据集估计器作为控制模型,并进行第三方对 ML 模型的评估。该行动计划总结于图 6 中。
根据上述提到的方法,ML 工程师引入的偏见可以在很大程度上得到解决。更详细地说,通过尝试不同的随机种子值、进行假设检验、对测试数据进行抽样,并监控和报告训练估计器的标准误差,可以解决缺乏统计验证的问题。此外,可以通过观察在训练数据集中交换目标和标签时模型受到的影响来更好地控制模型训练。关于缺乏第三方评估的问题,这可以通过与其他经验丰富的工程师合作并提供源代码、数据和配置的访问权限来解决,从而使得整个评估过程更加透明和客观。为了最小化 ML 工程师可能引起的偏见,所有之前提到的方法和技术都应按照图中所示的步骤依次遵循。它们的目标都是在 ML 模型训练和评估的不同阶段解决所述偏见,并且彼此互补。
无论是源于人类还是机器学习(ML)模型背后的数学,偏见都是影响这些模型结果的关键因素。研究界已经意识到这种影响,因此在前几节中提出了多种尝试缓解偏见的方法。此外,还有一些倡议,例如 AI Fairness 360 [245]、Fairlearn [246] 和 Fairkit-learn [247] 工具,旨在为训练 ML 模型时提供一个更完整的技术框架以缓解偏见,从而促进人工智能的公平性。这类框架在偏见缓解方面展示了有希望的结果 [248];然而,它们仍然有很大的改进空间,这就是为什么开发者们请求研究人员积极参与,以便进一步增强和改进这些工具 [249]。
完全从 ML 生命周期中消除所有类型的偏见并非易事,有些人甚至认为这是不可能的。在训练和/或评估 ML 模型时,首要且最重要的问题是识别提供的数据、模型本身以及 ML 工程师(无论有意无意)可能引入的偏见的存在及其类型。这种识别可以通过经验方法进行,即考虑其他类似的方法和用例,或者通过使用能够识别偏见的算法,如本文中所呈现的那些。然后,应采取相应的对策并加以应用,以最小化已识别的偏见。为此,本论文的范围是作为 ML 工程师和其他对开发、评估和/或利用 ML 模型感兴趣的人的参考点,他们可以查阅此内容,首先识别偏见,然后去偏见化他们的方法。
根据文献回顾,目前大多数方法主要关注训练数据集中的偏见(即数据偏见),并声称应用了某种对应的偏见缓解技术,例如反事实加权(IPW)调整技术、模仿算法及其衍生方法。至于由 ML 模型本身引起的偏见,尤其是选择合适的优化器和正则化方法时,对此问题的关注较少,而大多数提出的解决方案并未考虑到优化器和正则化方法的选择也可能在模型中引入偏见,正如第 4.2 节所述。
总体而言,从本文分析的所有研究文档来看,39 篇论文分析了识别和缓解数据偏见的方法和技术,21 篇比较研究强调了选择合适估计器以避免引入进一步偏见的重要性,24 篇比较研究分析了正则化技术如何有助于减少算法偏见。关于优化器如何影响模型的偏见以及 ML 工程师如何引入偏见的方式,在文献中分别仅识别出 9 篇和 3 篇研究,如图 7 所示。
后者表明,未来的研究方法应旨在:(i)更好地证明选择特定优化器的原因,并对比其他可用的优化器说明其如何最小化偏见;(ii)根据适当的指标评估他们提出的方案,并通过允许第三方评估者和审稿人进行评估来提高训练模型的透明度。
至于其他讨论机器学习中偏见的文献综述,它们大多也关注数据偏见。具体而言,在 [250] 中,作者主要关注选择偏见和由不平衡数据引起的偏见,并提供了应对这些类型偏见的最常见技术。同样,在 [251] 中,作者提供了一篇关于可以缓解数据中存在的偏见(例如,选择偏见)的方法的全面综述。另一篇有趣的全面综述由 [252] 的作者提供,他们收集了大量研究,以识别偏见的类型并提出缓解方法,重点在于数据偏见和估计器偏见。然而,上述综述并未考虑模型构建者在训练/评估模型时也可能引入偏见(即工程师偏见),如本文第 5 节所述,也没有考虑到优化器的选择可能会影响 ML 模型的偏见,如第 4 节所述。一篇与上述综述关注相同方面的类似全面综述可以在 [253] 中找到。此外,与本文相比,上述综述没有按用例领域对提供的方法进行分类,这使得难以确定特定领域的最适当方法。
至于更具体的用例相关的综述,它们大多涉及健康领域。具体而言,[254] 的作者提供了一项关于健康相关 ML 模型中可能遇到的偏见类型的全面研究,更精确地说,是在评估心血管疾病(CVD)风险的 ML 模型中。在这项研究中,作者还重点关注了数据偏见和估计器偏见。在 [255] 中,作者也在 CVD 的背景下调查了数据偏见,并提供了缓解患者电子健康记录(EHRs)中可能存在偏见的方法。同样,[256] 的作者也提供了一份全面的方法列表,用于解决放射学中的偏见;然而,他们还提到了优化器和正则化技术,因为他们也认识到这些技术可能会引入进一步的偏见。然而,在这种情况下,对 ML 工程师可能引入的偏见的关注仍然很少甚至没有。以上内容的总结可以在表 12 中找到。
以上内容为未来与机器学习(ML)模型相关的研究提供了方向,即通过改进方法论实践来整合必要的偏见缓解技术,从而产生更加完整和有意义的结果。话虽如此,本文关于算法偏见的研究结果表明,SVM 算法更有利于减少偏见,而 SGD 优化器和 Lasso 正则化方法分别是使用最广泛的优化器和正则化方法。然而,需要强调的是,上述内容并不意味着 SVM、SGD 和 Lasso 总是产生最少的偏见。正如本文多次提到的那样,所使用的数据类型以及需要完成的 ML 任务将决定哪种算法、优化器和正则化方法最适合减少偏见。
考虑到这一点,能够参考其他类似的方法及其所采用的技术也是十分有帮助的,这样模型构建者可以获得一些指导,了解哪些技术可能更适合他们的应用场景。至于模型的评估,似乎也缺乏对在评估过程中采用适当技术以缓解偏见并确保客观性的关注。基于本研究的发现,图6中提出的三步行动计划应成为 ML 模型及相关出版物评估的核心,从而形成一个被广泛接受的框架,以实现对 ML 方法的客观评估。
关于本次文献综述可能存在的局限性,主要体现在研究选择过程中潜在的选择偏见。对于每种类型的偏见,我们选择了最具代表性的搜索关键词并加以使用;然而,搜索是基于这些关键词是否出现在相应论文的标题、摘要或关键词中进行的。这意味着,有些出版物可能在其正文内讨论了本文所分析的概念,但却未在标题、摘要或关键词中提及。为了应对上述可能性,可以进一步更新搜索查询,使其也能检索出版物的全文内容,尽管并非所有出版数据库都具备这一功能。
此外,所有被纳入考虑范围的出版物都是用英文撰写的。根据搜索结果,确实存在少量用其他语言撰写的出版物,这些出版物大多为中文,并未被纳入本综述。该局限性可以通过与掌握这些外语的科研人员合作、协助翻译这些出版物来解决。更重要的是,如前所述,本研究是对人工智能(AI)中偏见概念及其识别与缓解方式的文献综述。作为未来的研究方向,可以开发一个整合了本文所述多种偏见识别与缓解技术和算法的框架,以进一步帮助 AI 实践者和爱好者识别并缓解其方法中的偏见问题。
7. 结论
总之,偏见是机器学习(ML)中的一个关键因素,在人工智能(AI)系统呈指数级增长并融入日常生活的背景下,它将继续困扰研究人员。所有参与训练、评估甚至使用 AI 系统的人都必须做到以下两点:(i)识别潜在 ML 模型中可能存在的偏见;(ii)应用适当的方法来缓解这些偏见。
如前所述,完全消除偏见几乎是不可能的,但更现实的目标是将其最小化。正如本文所示,偏见在机器学习生命周期的不同阶段可以以多种形式出现。在本文的框架下,偏见类型被分为三大类:源自数据的偏见、源自 ML 模型的偏见以及源自 ML 工程师的偏见。对于每一类偏见,本文都详细介绍了其表现形式,并列举了文献中提出的用于缓解这些偏见的各种方法和策略。
根据本研究的发现,目前的研究文献主要关注于某些特定类型的偏见,尤其是与数据相关的偏见,而往往低估或忽略了其他类型的偏见,特别是在对所提出的 ML 模型进行评估时更是如此。
研究人员无疑正在尝试缓解他们方法中的偏见;然而,他们还应开始探索偏见的其他方面,并在整个机器学习生命周期中全面地应对偏见,而不是仅在孤立的某些阶段进行处理。为此,本文不仅为 ML 工程师提供了关于可能存在的偏见及其缓解方式的指南,也为未来的研究指明了方向,特别是聚焦于当前 ML 模型偏见的相关术语和方法,这是 ML 工程师应更加关注的方向。
当然,本文还可以进一步扩展,尤其是在现有的人工智能公平性工具方面——在本研究中只是对其进行了简要描述。此外,本文的内容也可以转化为一种技术实现方案,为在各种应用场景中更全面地缓解机器学习中的偏见铺平道路。上述技术实现还可以在作者参与的一些欧盟相关项目 [257–262] 的背景下进行评估,从而获得更有价值的结果,并据此对技术方案进行相应的更新和优化,以更好地应对相应用例中的偏见问题。
原文链接:https://www.mdpi.com/2076-3417/14/19/8860