近年来,基于卷积神经网络(Convolutional Neural Network,CNN)的深度学习算法在单张自然图像超分辨(Single Image Super Resolution,SISR)领域取得了巨大的进展,可将输入的低分辨率模糊图像上采样为细节清晰的高分辨率图像。目前,这些深度学习超分辨算法正快速运用到显微成像领域,例如:将单张宽场荧光显微图像作为超分辨神经网络的输入,即可得到突破衍射极限分辨率的超分辨图像输出【1, 2】。但与自然图像超分辨任务有所区别的是,超分辨荧光显微成像需要的不仅是视觉效果上的提升,更重要的是超分辨重建的结果必须保真、可信,才能服务于生物医学研究。然而,面对复杂度多样的生物结构,以及不同信噪比和分辨率的显微成像条件,现有超分辨神经网络模型与传统超分辨成像方法相比孰优孰劣?以及在不同成像条件下,生物学家在多大程度上能够信任这些模型的输出结果?是否可以利用显微成像的特点进一步提升超分辨神经网络的性能?以及这些超分辨神经网络是否能应用到生物医学研究中,并发现新现象?这些基本问题在这一新兴领域依然处于未知。
2021年1月21日,中国科学院生物物理所李栋课题组与清华大学自动化系、清华大学脑与认知科学研究院戴琼海课题组在Nature Methods杂志以长文(Article)形式发表题为Evaluation and development of deep neural networks for image super-resolution in optical microscopy的论文,用自主开发的多模态结构光照明超分辨显微镜(Multi-modality Structured Illumination Microscopy)采集了可用于深度学习模型训练的高质量公开数据集BioSR,并提出测评矩阵(assessment matrix)方法,从多个维度综合分析了现有超分辨卷积神经网络模型对于显微图像的超分辨性能,在此基础上,该论文深度挖掘图像超分辨过程中的频域特征,提出傅立叶域注意力卷积神经网络(Deep Fourier Channel Attention Network, DFCAN)和傅立叶域注意力生成对抗网络(Deep Fourier Generative Adversarial Network, DFGAN),相较于其他超分辨CNN模型,DFCAN和DFGAN可以在不同成像条件下实现最优的显微图像超分辨预测和结构光超分辨图像重建效果,进一步提升了超分辨活细胞成像的性能,并观测到线粒体内脊、线粒体拟核、内质网、微丝骨架等生物结构的动态互作新行为。