张芷铭的个人博客

深度学习网络层按功能分为基础层、CNN 层、归一化层、激活层、序列层、Transformer 层、正则化层、融合层、特殊层九大类。

基础核心层

全连接层(Linear/FC)

  • 公式:$y = Wx + b$
  • 应用:分类输出、维度变换、Transformer MLP

CNN 专属层

卷积层

变体特点应用
2D 卷积权值共享,保留空间结构图像分类、检测
1D 卷积时序维度提取语音、文本
3D 卷积空间+时序视频分析
深度可分离卷积极致压缩参数MobileNet
空洞卷积增大感受野DeepLab
转置卷积可学习上采样图像生成

池化层

类型说明
Max Pooling保留显著特征
Average Pooling平滑特征
GAP替代 FC,减少参数

归一化层

类型归一化维度应用
BNBatch 维度CNN
LN特征维度Transformer/LLM
IN单样本单通道风格迁移
GN通道分组小 batch 场景

激活函数层

函数公式特点
ReLU$\max(0, x)$快速,存在死亡问题
GELU$x \cdot \Phi(x)$Transformer 标配
SiLU$x \cdot \sigma(x)$平滑可导

序列建模层

类型特点
LSTM门控+细胞状态,解决长依赖
GRULSTM 轻量版,工业界常用
双向 RNN捕捉双向上下文

Transformer 层

组件作用
嵌入层Token/位置映射
MHSA多头自注意力
因果注意力屏蔽未来信息
FFN/MLP升维-激活-降维
GLU门控线性单元

正则化层

类型说明
Dropout随机置零
DropPath随机丢弃残差块

特征融合层

类型操作
Concat维度拼接
Add逐元素相加
Multiply门控/加权

领域选型参考

领域核心层组合
CVConv + BN + ReLU + Pooling
LLM/NLPEmbedding + LN + Attention + FFN
时序1D Conv / LSTM + LN
生成模型Transposed Conv + IN/LN

Comments