社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  机器学习算法

深度学习模型经典架构(下)

人机与认知实验室 • 1 月前 • 33 次点击  
上一文介绍了6种深度学习经典架构,这一篇继续介绍剩下的几种。

7MixNet

计算机视觉领域的一种新型高效模型,MixNetGoogle Research2019提出的一种高效卷积神经网络架构,旨在结合EfficientNetInception的思想,通过多尺度特征融合进一步提升网络性能。MixNet的核心创新是引入了多尺度特征混合(Multi-Scale Feature Mixing 机制,能够在不显著增加计算量的情况下,增强网络对不同尺度特征的捕捉能力。

传统的卷积神经网络(如ResNetInception)通常通过固定尺度的卷积核(如 3×35×5)提取特征,但现实世界中的物体可能存在多种尺度。MixNet 通过引入 多分支卷积多尺度特征融合,让网络能够同时处理不同尺度的特征,从而提升对复杂场景的适应性。

1)     MixNet 的关键设计

多尺度卷积分支(Multi-Scale Convolution Branches
MixNet 
的每个模块包含多个分支,每个分支使用不同尺度的卷积核(如 3×35×57×7 等),分别提取不同尺度的特征。这些分支的输出通过 通道注意力机制(Channel Attention Mechanism 进行加权融合,从而动态地选择最重要的特征。

通道注意力机制(Channel Attention Mechanism
每个多尺度卷积分支的输出会通过一个轻量级的通道注意力模块,计算每个分支的权重。具体来说,通过全局平均池化(GAP)对每个分支的输出进行压缩,然后通过全连接层生成权重,最后将加权后的特征融合在一起。

深度可分离卷积(Depthwise Separable Convolution
为了降低计算量,MixNet 在部分分支中使用了深度可分离卷积(如 Mobile Inverted Bottleneck Convolution, MBConv),在保持性能的同时减少参数数量。

残差连接(Residual Connection
MixNet 
的模块之间通过残差连接实现信息流动,缓解梯度消失问题,同时促进多尺度特征的融合。

2) MixNet 的架构:

由多个Mixed Layer组成,每个Mixed Layer包含以下步骤:

多尺度卷积分支:使用不同尺度的卷积核(如 3×3 5×57×7)提取特征。

通道注意力机制:对每个分支的输出进行加权。

特征融合:将加权后的特征按通道维度拼接或相加。

残差连接:将融合后的特征与输入特征相加,形成残差连接。

3) MixNet 的优势

多尺度特征融合:通过多分支卷积和通道注意力机制,网络能够同时捕捉不同尺度的特征,提升对复杂场景的适应性。

高效性:通过深度可分离卷积和轻量级注意力机制,MixNet 在保持高性能的同时,显著降低了计算量和参数数量。

灵活性MixNet 的架构可以很容易地扩展到不同的任务(如图像分类、目标检测、语义分割)和硬件平台(如移动设备、边缘计算)。

性能提升:在 ImageNet 等基准数据集上,MixNet 的性能优于 EfficientNet  Inception 等经典模型。

4) MixNet 的改进版本

MixNet++MixNet的基础上进一步优化了多尺度特征融合机制,提升了性能和效率。

MixVision将MixNet的思想应用于视觉TransformerVision Transformer, ViT),结合了CNNTransformer的优势。


8生成对抗网络(Generative Adversarial Network, GAN

GAN是由Ian Goodfellow2014提出的一种深度学习模型,通过生成器(Generator 判别器(Discriminator之间的对抗训练,实现数据生成或分布逼近的目标。GAN的核心思想是博弈论,通过生成器和判别器的对抗来提升彼此的性能。广泛应用于图像、视频、音频生成,是生成模型的重要研究方向。

1GAN 的基本结构:

由两个主要组件组成:

1生成器(Generator, G

输入:随机噪声向量(通常从高斯分布或均匀分布中采样)。

功能:将噪声向量转换为接近真实数据的伪造样本(如图像、文本等)。

目标:生成越来越逼真的伪造样本,以欺骗判别器。

2.判别器(Discriminator, D

输入:真实数据样本或生成器生成的伪造样本。

功能:判断输入样本是真实的(来自真实数据)还是伪造的(来自生成器)。

目标:准确区分真实样本和伪造样本。

2GAN 的目标函数:

GAN的训练目标是最小化以下损失函数:

其中:D(x) 是判别器对真实样本的置信度(接近 1; D(G(z)) 是判别器对生成样本G(z)的置信度(接近 0;V(D, G) 是生成器和判别器的博弈价值函数。

3GAN 的优势 :

无需标注数据GAN 只需要真实数据,不需要标签,适合无监督学习任务(如数据生成)。

强大的生成能力GAN 可以生成高质量的样本(如图像、音频、文本等),接近真实数据分布。

灵活性GAN 可以应用于多种任务,如图像修复、风格迁移、超分辨率重建等。

4GAN 的挑战:

训练不稳定:生成器和判别器的对抗训练可能导致梯度消失或模式崩溃(Mode Collapse)。

评估困难:生成样本的质量难以量化,通常需要人工评估或引入其他指标(如 Inception Score, FID)。

计算资源消耗大GAN 需要大量计算资源进行训练,尤其是高分辨率图像生成任务。

5GAN 的改进与变体:

DCGANDeep Convolutional GAN):使用卷积层代替全连接层,提升图像生成质量;引入批量归一化(Batch Normalization)稳定训练。

WGANWasserstein GAN):使用Wasserstein距离代替Jensen-Shannon散度,解决梯度消失问题;限制判别器的参数范围,避免梯度惩罚。

LSGANLeast Squares GAN):使用最小二乘损失函数,缓解梯度消失问题。

CycleGAN:用于无监督域自适应,通过循环一致性损失实现不同域之间的转换(如马到斑马)。

StyleGAN:引入风格向量(Style Vector),实现对生成图像风格的精细控制,生成高质量图像。

归结起来:

6GAN 的应用:

数据生成:生成逼真的图像、音频、文本等数据。

图像修复:修复损坏的图像或视频。

风格迁移:将一种图像的风格迁移到另一种图像(如将油画风格应用到照片)。

超分辨率重建:将低分辨率图像转换为高分辨率图像。

域自适应:将数据从一个域迁移到另一个域(如将合成数据转换为真实数据)。

9Transformer

深度学习的革命性架构由Google Brain团队Vaswani等)在2017论文《Attention Is All You Need》中提出的革命性神经网络架构。它完全依赖自注意力机制(Self-Attention,摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),在效率和性能上实现了显著提升。在自然语言处理(NLP)、计算机视觉(CV)等领域取得了突破性进展。

Transformer的核心是自注意力机制,它允许模型在处理序列数据时,动态地关注输入序列中不同位置的信息。与传统RNN相比,自注意力机制具有以下优势:并行计算长距离依赖灵活性可扩展性。

1Transformer的架构

Transformer编码器(Encoder)和解码器(Decoder)两部分组成 (但可以单独使用,如 BERT仅用编码器,GPT仅用解码器)每部分都基于自注意力机制前馈神经网络Feed-Forward Neural Network, FFN)构建。

1. 编码器(Encoder

编码器的作用是将输入序列(如文本)转换为一个固定长度的上下文表示。编码器由多个相同的层堆叠而成,每一层包含以下组件:

多头自注意力机制(Multi-Head Self-Attention:将输入序列的不同部分映射到多个子空间(头),并计算每个头的注意力权重。

残差连接和层归一化(Residual Connection & Layer Normalization:将输入直接加到输出上,并进行归一化,以加速训练并稳定网络。

前馈神经网络(FFN:一个两层的全连接网络,用于进一步处理特征。

2. 解码器(Decoder

解码器的作用是根据编码器的输出和已生成的序列,逐步生成目标序列(如翻译结果)。解码器也由多个相同的层堆叠而成,每一层包含以下组件:

多头自注意力机制(Multi-Head Self-Attention:与编码器类似,但只关注已生成的序列部分。

编码器-解码器注意力机制(Encoder-Decoder Attention:将解码器的当前状态与编码器的输出进行交互,以捕捉输入序列和输出序列之间的关系。

残差连接和层归一化:与编码器相同。

前馈神经网络(FFN:与编码器相同。

3. 位置编码(Positional Encoding

由于自注意力机制本身不包含序列顺序信息,Transformer引入了位置编码,将序列中每个元素的位置信息注入到输入中。位置编码通常是一个固定的矩阵,与输入嵌入相加,使得模型能够区分不同位置的元素。

2Transformer的应用:

TransformerNLP领域取得了巨大成功,以下是一些经典应用:

机器翻译GoogleNeural Machine TranslationNMT)系统基于Transformer

文本生成:如GPTGenerative Pre-trained Transformer)系列模型,用于生成自然语言文本。

问答系统:如BERTBidirectional Encoder Representations from      Transformers),用于理解问题和生成答案。

多模态任务:如ViTVision Transformer),将Transformer应用于图像分类任务。

3Transformer的变体:

BERT(双向编码器,2018:通过双向编码器预训练模型,提升了文本理解能力。

GPT单向解码器,2018-2023:基于Transformer的生成式预训练模型,用于文本生成。

T5编码器-解码器,2019:将所有NLP任务统一为文本到文本的转换任务。

ViT2020,将图像分块处理:将Transformer应用于图像分类任务,取代传统的CNN

DeBERTa :通过改进注意力机制和预训练策略,进一步提升了模型性能。

4)局限性及改进方向:

10LSTMLong Short-Term Memory

LSTM是一种特殊的循环神经网络(RNN),由 Hochreiter & Schmidhuber  1997 提出,旨在解决传统 RNN 的长期依赖问题(如梯度消失/爆炸)。它通过引入门控机制和记忆单元,显著提升了模型对长序列数据的记忆能力,广泛应用于自然语言处理、时间序列预测语音识别、视频分析等领域。

与传统RNN相比,LSTM增加了三个门控单元:输入门(Input Gate:决定当前输入有多少信息可以写入记忆单元。遗忘门(Forget Gate:决定历史记忆单元中有多少信息可以被遗忘。输出门(Output Gate:决定记忆单元中的信息如何输出到当前状态。

1LSTM的结构

LSTM的核心是一个记忆单元(Cell,它通过三个门控单元和激活函数来更新和传递信息。具体结构如下:

(1) 遗忘门(Forget Gate决定历史记忆单元中有多少信息需要被遗忘。

(2) 输入门(Input Gate):决定当前输入有多少信息可以写入记忆单元。

(3) 候选记忆单元(Candidate Cell State):生成当前时间步的候选记忆单元值。

(4) 更新记忆单元(Cell State):结合遗忘门和输入门,更新记忆单元的值。

(5) 输出门(Output Gate:决定记忆单元中的信息如何输出到当前状态。

(6) 隐藏状态(Hidden State:基于记忆单元和输出门生成当前时间步的隐藏状态。

LSTM 的每个时间步包含以下计算步骤:

2 LSTM的优势:

解决长期依赖问题:通过记忆单元和门控机制,LSTM能够保留长期依赖的信息,避免梯度消失和爆炸。

灵活控制信息流动:输入门、遗忘门和输出门分别控制信息的写入、遗忘和输出,使得网络可以动态调整记忆。

缓解梯度问题:记忆单元的线性更新方式(无激活函数)减少了梯度消失的风险。

3LSTM的变体:

GRUGated Recurrent Unit:简化了LSTM的结构,将遗忘门和输入门合并为一个更新门,减少了参数数量。

Peephole LSTM:在门控单元中引入记忆单元的值,增强了对历史信息的利用。

双向LSTMBidirectional LSTM:同时考虑序列的前向和后向信息,适用于需要上下文感知的任务(如命名实体识别)。

这些深度学习的经典架构通常都是为了解决特定类型的任务或克服当时面临的核心技术挑战而诞生的。它们是AI 发展史上的里程碑,解决了神经网络应用中的核心问题,突破了性能瓶颈,提供了可复用的强大组件和设计范式;极大降低应用和研究的门槛,促进了迁移学习; 推动了软硬件生态发展,加速了 AI 技术在各个领域的实际应用落地。它们不仅是技术的结晶,更是推动整个领域向前发展的引擎和基石。



Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/183594
 
33 次点击