主题词
高光谱遥感,混合像元分解,深度学习, 机器学习, 深度神经网络, 遥感智能解译, 亚像元解译
由于受空间分辨率限制,混合像元问题始终限制着高光谱遥感在精细化地物信息提取工作中的作用。随着深度学习的兴起,其出色的特征学习和预测能力已使之成为设计高效解混算法的重要技术。
西安科技大学苏远超团队联合中国科学院空天信息创新研究院高连如编委团队在《遥感学报》发表了文章“基于深度学习的高光谱遥感图像混合像元分解综述”,对现有的解混方法按照光谱混合模型和训练方式进行归类和整理,对各类方法的优缺点进行介绍,整理了目前公开的解混代码。此外,文章还指出了该领域未来研究的关键问题,以激发深层次的思考推动该领域的发展进步。
题目:基于深度学习的高光谱遥感图像混合像元分解综述
高光谱遥感图像凭借光谱分辨率高、图谱合一的特点,已经在环境监测、精准农业、海水污染治理等领域得到了广泛应用。然而,受空间分辨率的限制,大尺度高光谱遥感图像中普遍存在大量包含多种地物的混合像元,对数据处理与分析的准确性造成影响。处理混合像元问题最有效的分析方法是混合像元分解,其目的是从亚像元视角获取成像区域内各类地物的端元和像元内各类端元所对应的丰度。现阶段,构建合理有效的混合像元分解方法已成为实现地物信息精细化获取的重要环节。
深度学习的快速发展极大地促进了遥感技术的革新,并为高光谱图像解混带来了很多革命性的新思路。相较于传统的机器学习和统计理论,深度学习凭借其强大的学习和预测能力,能够深度挖掘数据中的隐藏且复杂的相关特征,进而提升结果的准确性,如今已经成为设计解混算法的重要手段。然而,目前遥感领域对基于深度学习的解混技术缺乏归纳,无法为相关研究人员了解和学习相关内容提供全面的帮助。
处理混合像元问题,首先要将成像时的光谱混合机理用数学形式进行表达,即,建立光谱混合模型。目前,光谱混合模型主要可以分为两类:线性混合模型和非线性混合模型。线性光谱混合模型虽然是一种粗略假设(如图1所示),但模型结构简单,普适性好,有利于与深度网络进行结合来实现自动化程度高的非监督解混。非线性光谱混合模型是对一类模型的统称,包括紧密型混合模型和多层次混合模型(如图2、图3所示),非线性模型虽然复杂度较高,但建模过程考虑了电磁波物理交互现象,得到的结果更加符合混合像元的形成机制。
根据是否将端元信号作为先验条件,解混方法可分为非监督和监督两类。非监督的方法通常以盲信号分离的方式来实现解混,而监督解混方法需要提前获取端元。此外,稀疏解混是一种传统的线性解混方法,需要建立丰富的光谱库作为已知的端元集合,从中找到最优的端元子集并求解该子集对应的丰度,其训练过程属于半监督,因而也被称为“半监督解混方法”。
本文先从各个方法所依据的光谱混合模型(线性光谱混合模型和非线性光谱混合模型)出发,对当前基于深度学习的解混方法进行初步归类。由于解混方法的训练方式也关系到该方法的适用范围和准确性,因而在模型分类的基础上再将解混方法细分为非监督方法、半监督方法(即稀疏解混)、以及监督方法。
按照建模原理与建模方式的不同,本文将非监督归类细化为基于自动编码器的解混方法、基于“数据—模型”双驱动的解混方法、以及基于“传统—深度”相结合的解混方法。自动编码器凭借其可扩展性强的特点,在目前解混方法设计中使用最为广泛。但此类方法主要以盲信号分离方式来估算端元与丰度,利用深度学习挖掘数据隐藏的相关性特征,使解混的过程更加精细、结果更加准确。与之相对的是基于数据—模型双驱动的解混方法,随着硬件技术的进步,数据获取的成本逐渐降低,而且模型训练的优劣与数据本身关系密切,将数据驱动与模型驱动相结合,能更好地发挥两者的优势。
此外,近年来也出现了一些将传统模式识别理论与深度学习相结合的解混方法,对传统数学模型进行分层化计算,既利用了隐藏信息,也保障了计算效率。
本篇论文完成了对现阶段基于深度学习的解混方法的介绍,并按照光谱混合模型与各个方法的学习方式进行了归类,如图4所示。
深度学习在隐藏信息挖掘、特征表达、方面具有显著优势,因而逐渐被广泛用于构建解混方法。也推动着解混研究朝着多层级、模块化、可插拔方向发展。现阶段,基于深度学习的解混方法在解混精度和性能上已经取得了极大的提升,也预示着深度学习在混合像元分解中将继续发挥重要作用。
然而,高光谱遥感数据的质量仍然难以避免噪声、光照变化、地物阴影等外在条件的影响,这些外部影响的存在严重削弱了图像的空间和光学特征,对现阶段的高光谱遥感数据解译造成不小的困难。因此,如何更深入的挖掘空间相关性特征来提升网络预测能力、以及如何避免或减弱数据污染对混合像元分解的干扰,是实现地物信息精细化提取的实际需求,对实现精细化对地观测意义重大,也是未来混合像元分解研究需要关注的重要问题。
在深度学习的推动下,未来将出现更多泛化性好、准确性强的解混方法,解混技术的进步也将为农业、生态等其他重要领域提供更多可靠的工具,对遥感技术朝着多元化、定量化方向发展起到积极的推动作用。
第一作者简介:苏远超,西安科技大学测绘科学与技术学院副教授,研究方向为高光谱遥感图像智能处理与分析、深度学习。E-mail: suych3@xust.edu.cn
通信作者简介:高连如,中国科学院空天信息创新研究院研究员,研究方向为高光谱遥感图像处理与信息提取。E-mail:gaolr@aircas.ac.cn
韩竹, 高连如, 张兵, 孙旭, 李庆亭. 2020.高分五号高光谱图像自编码网络非线性解混. 遥感学报, 24(4): 388-400[ doi: 10.11834/jrs.20209188]
Y.
Su, A. Marinoni, J. Li, J. Plaza and P. Gamba. Stacked Nonnegative
Sparse Autoencoders for Robust Hyperspectral Unmixing [J]. IEEE
Geoscience and Remote Sensing Letters, 15(9): 1427-1431, 2018, doi:
10.1109/LGRS.2018.2841400
Y. Su, J. Li, A. Plaza, A. Marinoni, P. Gamba and S. Chakravortty. DAEN: Deep Autoencoder Networks for Hyperspectral Unmixing [J]. in IEEE Transactions on Geoscience and Remote Sensing, 57 (7): 4309-4321, 2019, doi: 10.1109/TGRS.2018.2890633
Y. Su, X. Xu, J. Li, H. Qi, P. Gamba and A. Plaza. Deep Autoencoders With Multitask Learning for Bilinear Hyperspectral Unmixing [J]. IEEE Transactions on Geoscience and Remote Sensing, 59 (10): 8615-8629, 2021, doi: 10.1109/TGRS.2020.3041157
Z. Han, D. Hong, L. Gao, B. Zhang and J. Chanussot. Deep Half-Siamese Networks for Hyperspectral Unmixing [J]. IEEE Geoscience and Remote Sensing Letters, 18 (11): 1996-2000, 2021, doi: 10.1109/LGRS.2020.3011941.
L. Gao, Z. Han, D. Hong, B. Zhang and J. Chanussot. CyCU-Net: Cycle-Consistency Unmixing Network by Learning Cascaded Autoencoders [J]. IEEE Transactions on Geoscience and Remote Sensing, 60: 5503914, 2022, doi: 10.1109/TGRS.2021.3064958
Z. Han, D. Hong, L. Gao, J. Yao, B. Zhang and J. Chanussot. Multimodal Hyperspectral Unmixing: Insights From Attention Networks [J]. IEEE Transactions on Geoscience and Remote Sensing, 60: 5524913, 2022, doi: 10.1109/TGRS.2022.3155794
Z. Han, D. Hong, L. Gao, B. Zhang, M. Huang and J. Chanussot. AutoNAS: Automatic Neural Architecture Search for Hyperspectral Unmixing [J]. IEEE Transactions on Geoscience and Remote Sensing, 60: 5532214 1-14, 2022, doi: 10.1109/TGRS.2022.3186480.
朱治青, 苏远超, 李朋飞, 白晋颖, 刘英, 刘峰. 双约束深度卷积网络的高光谱图像空谱解混方法 [J]. 信号处理, 39(1): 128-142, 2023, doi:10.16798/j.issn.1003-0530.2023.01.013
声明
欢迎转载、转发本号原创内容,转载信息请与本号联系授权,标注原作者和信息来源为《遥感学报》。
本号转载信息旨在传播交流,其内容由作者负责,不代表本号观点。文中部分图片来源于网络,如涉及作品内容、版权和其他问题,请在20日内与本号联系,我们将在第一时间处理。《遥感学报》拥有最终解释权。
期刊订阅
1.各地邮局订阅:邮发代号82-324;
2.科学出版社期刊发行部:联系电话010-64017032,64017539;
3.网上购买:搜淘宝店、微店店铺名称:中科期刊(订阅及销售过刊)
《遥感学报》2024年3月新刊热卖中
戳图片 或 阅读全文
立即购买