域适应(Domain Adaptation, DA)已经成为机器学习和计算机视觉领域中的关键任务,旨在通过将知识从标记的源域转移到未标记的目标域来缓解域转移问题。传统的域适应方法大多基于封闭集假设,即源域与目标域类别完全一致。然而,现实中目标域可能包含源域未见的新类别,此类更具挑战性的场景被称为开集域适应(Open-Set Domain Adaptation, OSDA)。OSDA的关键挑战在于识别已知类别样本并区分未知类别样本,避免负迁移。值得注意的是,大多数现有的OSDA方法忽略了模型预测中的不确定性,容易在未知类别上做出过于自信的错误判断,影响整体性能。为了解决这些问题,本文提出一种面向开集主动域适应的证据深度学习方法(Evidential Deep Learning for Open-Set Active Domain Adaptation, EOSADA),利用Dirichlet分布替代传统分类网络中的softmax输出,有效建模分类不确定性,并结合两轮主动选择策略,在有限标注预算下选择最有价值的样本,从而提升模型在开放集场景下的整体性能。
所提方法
如图1所示,本文提出的EOSADA方法创新性地将证据深度学习(Evidential Deep Learning,
[1] Verma V, Lamb A, Beckham C, et al. Manifold mixup: Better representations by interpolating hidden states. In Proceedings of International Conference on Machine Learning. 2019: 6438-6447.
[2] Xie M, Li S, Zhang R, et al. Dirichlet-based uncertainty calibration for active domain adaptation. arXiv preprint arXiv:2302.13824, 2023.