跳到主要内容

Transformer架构深度研究报告

从序列模型革命到通用人工智能基石的技术演进

核心洞察

关键突破

完全并行计算与高效捕捉长距离依赖关系

🌐

应用领域

NLP、计算机视觉、语音处理、多模态学习

🚀

影响范围

成为GPT、BERT等大型语言模型的基础架构


1. Transformer架构的前世今生

1.1 历史发展脉络与关键里程碑

从RNN到Transformer:并行计算的迫切需求

在Transformer出现之前,**循环神经网络(RNN)及其变体,如长短时记忆网络(LSTM)**是处理序列数据的标准范式。然而,它们固有的顺序计算特性带来了两大核心瓶颈:

  • 顺序处理导致计算效率低下,无法充分利用现代GPU等并行计算硬件的优势
  • 捕捉远距离依赖关系的能力仍然受限,信息在逐层传递过程中容易丢失或衰减
[1]

2017年:里程碑诞生

Google团队发表论文**《Attention Is All You Need》**,正式提出Transformer架构 [1]

  • 完全基于自注意力机制
  • 摒弃循环和卷积结构
  • 提出缩放点积注意力

2018-2019年:预训练模型崛起

BERT和GPT的成功确立了"预训练-微调"新范式

  • BERT:双向编码器,擅长理解任务
  • GPT:自回归解码器,擅长生成任务
  • 推动NLP领域快速发展

1.2 技术原理的演进

自注意力机制的引入与革新

Transformer最大的革新在于将注意力机制应用于序列内部,即自注意力机制(Self-Attention)。与标准的注意力机制不同,自注意力机制的Query、Key和Value均来自同一个序列。

这种设计使得模型能够捕捉序列内部任意两个位置之间的依赖关系,无论它们之间的距离有多远。相比之下,RNN需要逐层传递信息才能建立远距离依赖,而CNN则只能通过堆叠多层来扩大感受野。 [101]

从序列到序列到通用特征提取器

最初,Transformer是为机器翻译等序列到序列任务设计的,但其编码器和解码器可以独立地作为强大的通用特征提取器

加载中...
[125]

1.3 核心组件的迭代优化

注意力机制优化

  • 稀疏注意力:降低复杂度到O(n log n)
  • 线性注意力:通过核函数分解
  • Longformer、BigBird等模型

位置编码创新

  • 固定位置编码:正弦余弦函数
  • 可学习位置嵌入
  • 相对位置编码

归一化优化

  • Pre-Norm vs Post-Norm
  • RMSNorm简化计算
  • 稳定深层网络训练

2. Transformer架构的核心技术与原理

2.1 自注意力机制(Self-Attention)

核心思想:计算序列内部元素间的关联

自注意力机制的核心思想可以概括为"关注自己"。对于一个给定的输入序列,自注意力机制会为序列中的每一个位置生成一个融合了全局上下文信息的表示。

这种机制使得模型能够直接捕捉序列内部任意两个元素之间的依赖关系,无论它们在序列中的距离有多远[101]

数学原理:缩放点积注意力

缩放点积注意力公式
Attention(Q, K, V) = softmax(QK^T / √d_k) · V

其中:Q、K、V分别表示Query、Key、Value矩阵,d_k是Key的维度

计算步骤:
  1. 计算注意力得分矩阵:score(i,j) = Q_i · K_j^T
  2. 缩放处理(防止梯度消失):scaled_score = score/√d_k
  3. 应用Softmax转换为概率分布:α = softmax(scaled_score)
  4. 加权求和得到最终输出:Output = α · V
Query, Key, Value计算:
Q = X · W_Q (维度: n×d_k)K = X · W_K (维度: n×d_k)V = X · W_V (维度: n×d_v)

其中X是输入序列,W_Q、W_K、W_V是可学习的权重矩阵

时间复杂度分析
  • **计算复杂度:**O(n²·d),其中n是序列长度,d是特征维度
  • **空间复杂度:**O(n²),需要存储注意力矩阵
  • **并行化优势:**所有位置的注意力可以并行计算
[1]

PyTorch实现:自注意力机制

缩放点积注意力机制实现python
import torch
import torch.nn as nn
import torch.nn.functional as F
import math

class ScaledDotProductAttention(nn.Module):
  """缩放点积注意力机制实现"""
  def __init__(self, d_k, dropout=0.1):
      super(ScaledDotProductAttention, self).__init__()
      self.d_k = d_k
      self.dropout = nn.Dropout(dropout)
  
  def forward(self, Q, K, V, mask=None):
      """
      前向传播
      Args:
          Q: Query矩阵 (batch_size, n_heads, seq_len, d_k)
          K: Key矩阵 (batch_size, n_heads, seq_len, d_k)
          V: Value矩阵 (batch_size, n_heads, seq_len, d_v)
          mask: 掩码矩阵,用于屏蔽无效位置
      Returns:
          output: 注意力输出 (batch_size, n_heads, seq_len, d_v)
          attention_weights: 注意力权重 (batch_size, n_heads, seq_len, seq_len)
      """
      # 计算注意力得分: QK^T
      scores = torch.matmul(Q, K.transpose(-2, -1)) / math.sqrt(self.d_k)
      
      # 应用掩码(如果有)
      if mask is not None:
          scores = scores.masked_fill(mask == 0, -1e9)
      
      # Softmax归一化
      attention_weights = F.softmax(scores, dim=-1)
      attention_weights = self.dropout(attention_weights)
      
      # 加权求和
      output = torch.matmul(attention_weights, V)
      
      return output, attention_weights

2.2 多头自注意力(Multi-Head Self-Attention)

多头注意力机制架构

加载中...
[127]

设计动机与优势

设计动机
  • 不同头关注不同方面信息
  • 句法结构、语义关联、实体关系
  • 从多个子空间捕捉信息
主要优势
  • 增强模型表达能力
  • 提高模型鲁棒性
  • 具有正则化效果
多头注意力计算公式
MultiHead(Q, K, V) = Concat(head₁, ..., headₕ)W^O其中 head_i = Attention(QW^Q_i, KW^K_i, VW^V_i)

h表示头数,每个头有独立的权重矩阵W^Q_i、W^K_i、W^V_i

PyTorch实现:多头自注意力

多头自注意力机制实现python
class MultiHeadAttention(nn.Module):
  """多头自注意力机制实现"""
  def __init__(self, d_model, n_heads, dropout=0.1):
      super(MultiHeadAttention, self).__init__()
      assert d_model % n_heads == 0, "d_model必须能被n_heads整除"
      
      self.d_model = d_model
      self.n_heads = n_heads
      self.d_k = d_model // n_heads
      
      # 线性投影层
      self.W_Q = nn.Linear(d_model, d_model)
      self.W_K = nn.Linear(d_model, d_model)
      self.W_V = nn.Linear(d_model, d_model)
      self.W_O = nn.Linear(d_model, d_model)
      
      self.attention = ScaledDotProductAttention(self.d_k, dropout)
      self.dropout = nn.Dropout(dropout)
      self.layer_norm = nn.LayerNorm(d_model)
  
  def forward(self, Q, K, V, mask=None):
      batch_size = Q.size(0)
      
      # 残差连接
      residual = Q
      
      # 线性投影并分割为多头
      Q = self.W_Q(Q).view(batch_size, -1, self.n_heads, self.d_k).transpose(1, 2)
      K = self.W_K(K).view(batch_size, -1, self.n_heads, self.d_k).transpose(1, 2)
      V = self.W_V(V).view(batch_size, -1, self.n_heads, self.d_k).transpose(1, 2)
      
      # 计算注意力
      output, attention_weights = self.attention(Q, K, V, mask)
      
      # 拼接多头
      output = output.transpose(1, 2).contiguous().view(
          batch_size, -1, self.d_model
      )
      
      # 输出投影
      output = self.W_O(output)
      output = self.dropout(output)
      
      # 残差连接和层归一化
      output = self.layer_norm(output + residual)
      
      return output, attention_weights

2.3 编码器与解码器结构

编码器(Encoder)

  • 多头自注意力层
  • 位置全连接前馈网络
  • 残差连接和层归一化
  • 提取输入序列的高级表示

解码器(Decoder)

  • 掩码多头自注意力层
  • 编码器-解码器注意力层
  • 位置全连接前馈网络
  • 基于编码器输出生成目标序列
编码器-解码器注意力机制

编码器-解码器注意力层是连接模型"理解"和"生成"两部分的桥梁。解码器当前步骤的隐藏状态作为Query,去与编码器所有步骤的隐藏状态(作为Key和Value)进行注意力计算,建立输入和输出序列之间的对齐关系。

2.4 其他关键组件

位置编码(Positional Encoding)

为模型提供序列的位置信息,采用正弦余弦函数或学习嵌入方式。 [100]

PE(pos, 2i) = sin(pos / 10000^(2i/d_model))PE(pos, 2i+1) = cos(pos / 10000^(2i/d_model))

其中pos是位置,i是维度索引,d_model是模型维度

位置编码实现python
class PositionalEncoding(nn.Module):
  """位置编码实现"""
  def __init__(self, d_model, max_len=5000, dropout=0.1):
      super(PositionalEncoding, self).__init__()
      self.dropout = nn.Dropout(dropout)
      
      # 创建位置编码矩阵
      pe = torch.zeros(max_len, d_model)
      position = torch.arange(0, max_len).unsqueeze(1).float()
      
      div_term = torch.exp(torch.arange(0, d_model, 2).float() *
                         -(math.log(10000.0) / d_model))
      
      pe[:, 0::2] = torch.sin(position * div_term)
      pe[:, 1::2] = torch.cos(position * div_term)
      
      pe = pe.unsqueeze(0)  # (1, max_len, d_model)
      self.register_buffer('pe', pe)
  
  def forward(self, x):
      # x: (batch_size, seq_len, d_model)
      x = x + self.pe[:, :x.size(1)]
      return self.dropout(x)

前馈网络(Feed-Forward Network)

增强非线性表达能力,对每个位置的表示进行独立处理。通常包含两个线性变换和一个激活函数。

FFN(x) = GELU(xW₁ + b₁)W₂ + b₂

其中W₁、W₂是权重矩阵,b₁、b₂是偏置,GELU是激活函数

前馈网络实现python
class FeedForward(nn.Module):
  """前馈网络实现"""
  def __init__(self, d_model, d_ff, dropout=0.1):
      super(FeedForward, self).__init__()
      self.linear1 = nn.Linear(d_model, d_ff)
      self.linear2 = nn.Linear(d_ff, d_model)
      self.dropout = nn.Dropout(dropout)
      self.layer_norm = nn.LayerNorm(d_model)
  
  def forward(self, x):
      # 残差连接
      residual = x
      
      # 前馈网络
      x = self.linear1(x)
      x = F.gelu(x)  # GELU激活函数
      x = self.dropout(x)
      x = self.linear2(x)
      x = self.dropout(x)
      
      # 残差连接和层归一化
      x = self.layer_norm(x + residual)
      
      return x

残差连接与归一化

稳定深层网络训练,缓解梯度消失问题。Transformer使用残差连接和层归一化来稳定训练。

Post-Norm: output = LN(x + Sublayer(x))Pre-Norm: output = x + Sublayer(LN(x))

Pre-Norm通常训练更稳定,现代模型多采用Pre-Norm

层归一化实现python
class LayerNorm(nn.Module):
  """层归一化实现"""
  def __init__(self, d_model, eps=1e-6):
      super(LayerNorm, self).__init__()
      self.gamma = nn.Parameter(torch.ones(d_model))
      self.beta = nn.Parameter(torch.zeros(d_model))
      self.eps = eps
  
  def forward(self, x):
      # x: (batch_size, seq_len, d_model)
      mean = x.mean(-1, keepdim=True)
      std = x.std(-1, keepdim=True)
      return self.gamma * (x - mean) / (std + self.eps) + self.beta

3. Transformer架构的实现与现状

3.1 实现方式与代码解析

PyTorch实现示例:完整Transformer模型

完整的Transformer模型实现python
import torch
import torch.nn as nn
import torch.nn.functional as F
import math

class TransformerModel(nn.Module):
  """完整的Transformer模型实现"""
  def __init__(self, vocab_size_src, vocab_size_tgt, d_model=512, 
               nhead=8, num_encoder_layers=6, num_decoder_layers=6,
               dim_feedforward=2048, dropout=0.1):
      super(TransformerModel, self).__init__()
      self.d_model = d_model
      
      # 词嵌入层
      self.embedding_src = nn.Embedding(vocab_size_src, d_model)
      self.embedding_tgt = nn.Embedding(vocab_size_tgt, d_model)
      
      # 位置编码
      self.pos_encoder = PositionalEncoding(d_model, dropout)
      self.pos_decoder = PositionalEncoding(d_model, dropout)
      
      # Transformer主体
      self.transformer = nn.Transformer(
          d_model=d_model, 
          nhead=nhead, 
          num_encoder_layers=num_encoder_layers,
          num_decoder_layers=num_decoder_layers, 
          dim_feedforward=dim_feedforward, 
          dropout=dropout
      )
      
      # 输出层
      self.out = nn.Linear(d_model, vocab_size_tgt)
      self._reset_parameters()

  def _reset_parameters(self):
      """Xavier初始化参数"""
      for p in self.parameters():
          if p.dim() > 1:
              nn.init.xavier_uniform_(p)

  def forward(self, src, tgt, src_mask=None, tgt_mask=None,
              memory_mask=None, src_key_padding_mask=None,
              tgt_key_padding_mask=None, memory_key_padding_mask=None):
      """
      前向传播
      Args:
          src: 源序列 (batch_size, src_len)
          tgt: 目标序列 (batch_size, tgt_len)
          src_mask: 源序列掩码
          tgt_mask: 目标序列掩码(用于防止看到未来信息)
      Returns:
          output: 输出logits (batch_size, tgt_len, vocab_size_tgt)
      """
      # 词嵌入并缩放
      src_emb = self.embedding_src(src) * math.sqrt(self.d_model)
      tgt_emb = self.embedding_tgt(tgt) * math.sqrt(self.d_model)
      
      # 添加位置编码
      src_emb = self.pos_encoder(src_emb)
      tgt_emb = self.pos_decoder(tgt_emb)
      
      # Transformer编码器-解码器
      output = self.transformer(
          src_emb, tgt_emb, 
          src_mask, tgt_mask, memory_mask,
          src_key_padding_mask, tgt_key_padding_mask,
          memory_key_padding_mask
      )
      
      # 输出投影
      return self.out(output)
[141]

Transformer编码器层完整实现

Transformer编码器单层实现python
class TransformerEncoderLayer(nn.Module):
  """Transformer编码器单层实现"""
  def __init__(self, d_model, nhead, dim_feedforward=2048, dropout=0.1):
      super(TransformerEncoderLayer, self).__init__()
      
      # 多头自注意力
      self.self_attn = MultiHeadAttention(d_model, nhead, dropout)
      
      # 前馈网络
      self.feed_forward = FeedForward(d_model, dim_feedforward, dropout)
      
      # 层归一化(Pre-Norm结构)
      self.norm1 = nn.LayerNorm(d_model)
      self.norm2 = nn.LayerNorm(d_model)
      
      self.dropout = nn.Dropout(dropout)
  
  def forward(self, src, src_mask=None, src_key_padding_mask=None):
      """
      编码器层前向传播
      Args:
          src: 输入序列 (batch_size, seq_len, d_model)
          src_mask: 注意力掩码
          src_key_padding_mask: 填充位置掩码
      """
      # Pre-Norm结构:先归一化再计算
      # 多头自注意力
      src2 = self.norm1(src)
      src2, _ = self.self_attn(src2, src2, src2, src_mask, src_key_padding_mask)
      src = src + self.dropout(src2)
      
      # 前馈网络
      src2 = self.norm2(src)
      src2 = self.feed_forward(src2)
      src = src + self.dropout(src2)
      
      return src

class TransformerEncoder(nn.Module):
  """Transformer编码器堆叠"""
  def __init__(self, encoder_layer, num_layers):
      super(TransformerEncoder, self).__init__()
      self.layers = nn.ModuleList([copy.deepcopy(encoder_layer) 
                                   for _ in range(num_layers)])
      self.num_layers = num_layers
  
  def forward(self, src, mask=None, src_key_padding_mask=None):
      """逐层处理输入序列"""
      output = src
      for layer in self.layers:
          output = layer(output, src_mask=mask, 
                        src_key_padding_mask=src_key_padding_mask)
      return output

训练技巧与最佳实践

学习率调度
  • Warmup策略:前10%步数线性增加学习率
  • 余弦退火:后续步数按余弦函数衰减
  • 公式:lr = lr_max * min(step/warmup_steps, 1)
正则化技术
  • Dropout:通常设置为0.1
  • Label Smoothing:防止过拟合
  • Gradient Clipping:防止梯度爆炸

关键超参数配置

超参数描述常见取值
d_model模型嵌入维度512 (Base), 768 (Large)
nhead多头注意力头数812
num_encoder_layers编码器层数6 (原始论文)
dim_feedforward前馈网络维度通常是 d_model 的 4 倍
dropoutDropout比率0.1

3.2 优缺点分析

✅ 优势

  • 并行计算能力:能够充分利用现代GPU的并行处理能力,极大缩短训练时间 [49]
  • 长距离依赖建模:允许序列中任意两个位置直接交互,无论距离多远 [51]
  • 强大表达能力:多头注意力机制能够从多个子空间学习信息,捕获丰富特征 [41]

❌ 缺点

  • 计算复杂度高:自注意力机制的计算量与序列长度的平方成正比O(N²) [38]
  • 内存消耗大:处理长序列时内存占用急剧增加 [39]
  • 数据量要求高:大模型需要海量数据和计算资源进行训练 [35]

3.3 主流模型与生态系统

主流Transformer模型对比

模型核心架构主要任务关键特点
BERTEncoder-only自然语言理解双向编码,MLM和NSP预训练 [53]
GPTDecoder-only自然语言生成自回归语言模型,引领LLM浪潮 [35]
T5Encoder-Decoder通用文本到文本统一所有NLP任务为文本生成格式 [44]
ViTEncoder-only (CV)图像分类将图像分块为序列,挑战CNN地位 [35]
CLIPDual Encoders多模态学习对比学习对齐图像和文本特征 [126]

Hugging Face生态系统

Hugging Face生态系统

Hugging Face的Transformers库已经成为事实上的标准,提供了一个统一、易用的API,集成了数千个预训练模型。 [56]

模型中心

社区驱动的平台,分享和下载预训练模型

部署优化

量化、知识蒸馏、ONNX导出等技术

完整生态

数据集库、分词器库、推理API等工具


4. Transformer在NLP领域的应用与未来

4.1 最新进展

大语言模型涌现能力

GPT-3等模型展现出的少样本学习上下文学习能力,被认为是通往AGI的重要一步。 [35]

  • 无需梯度更新
  • 仅通过示例完成任务
  • 自发表现新能力

指令微调与对齐

通过指令微调RLHF技术,让模型更好地理解人类意图并生成符合期望的输出。

  • 监督微调
  • 人类反馈强化学习
  • ChatGPT成功应用

模型压缩与高效推理

通过量化剪枝知识蒸馏等技术降低部署成本。 [53]

  • 8位/4位量化
  • LoRA高效微调
  • 轻量级部署

4.2 未来方向

Transformer在NLP领域的未来发展路径

加载中...

未来发展趋势

多模态融合

构建能够统一处理和理解多种模态信息的强大模型,如GPT-4V展示的强大图文理解能力。

具身智能

将语言模型与物理实体结合,实现通过自然语言指令控制机器人完成复杂任务。

可解释性与安全

发展工具和方法理解模型内部机制,确保模型安全性,防止恶意利用。


5. Transformer在其他领域的应用拓展

5.1 计算机视觉(CV)

Vision Transformer (ViT) 原理

ViT将标准Transformer架构直接应用于图像识别,核心思想是将图像视为序列化的输入。工作流程包括:

  1. 将2D图像分割成固定大小的图像块(patches)
  2. 每个patch展平并通过线性投影嵌入
  3. 添加位置编码保留空间信息
  4. 添加[class] token用于分类
  5. 送入标准Transformer编码器处理
[85][86]

图像分类

  • ViT直接挑战CNN统治地位
  • Swin Transformer引入移位窗口
  • Pyramid Vision Transformer (PVT)
  • Convolutional vision Transformer (CvT)

[87]

目标检测

  • DETR:端到端检测里程碑
  • 摒弃锚框和NMS后处理
  • Deformable DETR改进
  • DAB-DETR动态锚框

[83][91]

语义分割

  • Segmenter直接应用ViT
  • Mask2Former通用框架
  • 视频分割:VITA、SeqFormer
  • 长程依赖建模优势

[79]

CNN与Transformer融合方式

加载中...
[87]

5.2 语音处理

语音处理领域的应用

Transformer在语音处理领域凭借其并行计算能力和对长时依赖的建模优势,有效克服了传统RNN的训练瓶颈,在语音识别、语音合成等任务中展现出卓越性能。

5.3 多模态学习

多模态Transformer应用

Transformer成为构建统一模型的基石,通过设计精巧的跨模态注意力机制,实现了文本、图像、语音等不同模态信息的深度融合与对齐。

代表性模型如OpenAI的CLIP通过对比学习,将图像和文本映射到同一语义空间,实现了强大的跨模态理解能力。 [126]


6. 使用案例与应用场景

6.2 计算机视觉应用

自动驾驶

基于Transformer的模型如DETR能够直接对整个场景进行全局推理,更准确地检测各种尺度目标。

  • 实时环境感知
  • 多传感器数据融合
  • 端到端目标检测

遥感影像分析

基于Transformer的视觉分割技术在航拍影像分析中展现巨大潜力。 [79]

  • 地物分类与目标检测
  • 变化检测分析
  • 道路分割与提取

生物特征识别

以牛只识别为例,利用多头注意力特征融合方法实现高精度识别。 [88]

  • 牛鼻纹特征提取
  • CNN-Transformer融合
  • 识别准确率99.88%

实际应用案例:牛只识别系统

技术挑战
  • 牛鼻纹纹理复杂,细节丰富
  • 图像采集存在光照、角度变化
  • 个体间差异可能非常细微
解决方案
  • 多头注意力特征融合(MHAFF)
  • 动态融合CNN局部特征和Transformer全局特征
  • 识别准确率分别达99.88%和99.52%
案例总结

该案例生动展示了Transformer在处理复杂生物特征识别任务中的巨大潜力,通过巧妙融合不同模型优势,实现远超单一模型的性能。


常见问题解答

Transformer的核心优势包括:

  1. 并行计算能力:与RNN的顺序处理不同,Transformer可以并行处理序列中的所有位置,充分利用GPU等并行计算硬件
  2. 长距离依赖建模:通过自注意力机制,能够直接建模任意距离的依赖关系,无需逐层传递
  3. 强大表达能力:多头注意力机制能够从多个子空间学习信息,捕获丰富的特征表示
  4. 可扩展性:架构简洁统一,易于扩展到更大的模型和更复杂的任务

自注意力机制的计算复杂度为:

  • 时间复杂度:O(n²·d),其中n是序列长度,d是特征维度
  • 空间复杂度:O(n²),需要存储注意力矩阵

虽然复杂度较高,但Transformer的优势在于所有位置的注意力可以并行计算,相比RNN的顺序处理,在实际应用中通常更快。对于长序列,可以使用稀疏注意力、线性注意力等技术来降低复杂度。

多头注意力机制的优势在于:

  1. 多子空间学习:不同头可以关注不同方面的信息,如句法结构、语义关联、实体关系等
  2. 增强表达能力:从多个表示子空间捕捉信息,使模型能够学习更丰富的特征
  3. 提高鲁棒性:多个头的组合具有正则化效果,提高模型的泛化能力
  4. 并行计算:多个头可以并行计算,不会显著增加计算时间

Transformer处理长序列的挑战和解决方案:

  1. 计算复杂度:O(n²)的复杂度使得处理超长序列困难
  2. 解决方案
    • 稀疏注意力:只计算部分位置的注意力,降低复杂度到O(n log n)
    • 线性注意力:通过核函数分解实现线性复杂度
    • 分块处理:将长序列分成多个块分别处理
    • 滑动窗口:只关注局部窗口内的位置
  3. 代表性模型:Longformer、BigBird、Linformer等

位置编码的作用:

  1. 提供位置信息:Transformer没有内置的序列顺序概念,需要通过位置编码注入位置信息
  2. 固定位置编码:使用正弦余弦函数,可以处理任意长度的序列
  3. 可学习位置嵌入:作为模型参数学习,通常效果更好但需要更多数据
  4. 相对位置编码:关注相对位置关系而非绝对位置,在某些任务中表现更好

位置编码使得模型能够理解序列中元素的顺序关系,这对于语言理解等任务至关重要。

Transformer在计算机视觉领域的应用:

  1. Vision Transformer (ViT):将图像分割成patches,直接应用Transformer架构
  2. 目标检测:DETR等模型实现端到端检测,无需锚框和NMS
  3. 语义分割:Segmenter、Mask2Former等模型展现强大性能
  4. CNN-Transformer融合:结合CNN的局部特征提取和Transformer的全局关系建模
  5. 优势:长距离依赖建模、全局上下文理解、端到端训练

Transformer在CV领域的成功证明了其架构的通用性和强大能力。