经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 程序设计 » Python3 » 查看文章
PyTorch中实现Transformer模型 - zh-jp
来源:cnblogs  作者:zh-jp  时间:2024/2/2 9:09:32  对本文有异议

前言

  1. 关于Transformer原理与论文的介绍:详细了解Transformer:Attention Is All You Need

对于论文给出的模型架构,使用 PyTorch 分别实现各个部分。

引入的相关库函数:

  1. import copy
  2. import torch
  3. import math
  4. from torch import nn
  5. from torch.nn.functional import log_softmax
  6. # module: 需要深拷贝的模块
  7. # n: 拷贝的次数
  8. # return: 深拷贝后的模块列表
  9. def clones(module, n: int) -> list:
  10. return [copy.deepcopy(module) for _ in range(n)]

1. 编码器与解码器堆叠

Encoder 编码器

编码器由 N 个相同的编码层堆叠而成,每个编码层含两个子层:多头注意力层和前馈网络层。每个子层后跟着一层,用于残差连接与标准化。

Add & Norm 残差连接和标准化

对于上一层的结果:\({\rm SubLayer}(x)\)与输出上一层的变量:\(x\)做残差连接并进行标准化:\({\rm LayerNorm}(x + {\rm Sublayer}(x))\)

  1. # 层标准化
  2. class LayerNorm(nn.Module):
  3. # 设置 features 形状的张量作为可学习的参数,初始化
  4. def __init__(self, features, eps=1e-6):
  5. super(LayerNorm, self).__init__()
  6. # 初始化两个参数,α为权重,β为偏置
  7. self.a_2 = nn.Parameter(torch.ones(features))
  8. self.b_2 = nn.Parameter(torch.zeros(features))
  9. self.eps = eps
  10. def forward(self, x):
  11. # 计算最后一个维度的均值、方差
  12. mean = x.mean(-1, keepdim=True)
  13. std = x.std(-1, keepdim=True)
  14. return self.a_2 * (x - mean) / (std + self.eps) + self.b_2
  15. # 子层残差连接
  16. class SublayerConnection(nn.Module):
  17. # size: 参数矩阵的shape,
  18. # dropout_prob: dropout概率
  19. def __init__(self, size, dropout_prob):
  20. super(SublayerConnection, self).__init__()
  21. self.norm = LayerNorm(size)
  22. self.dropout = nn.Dropout(p=dropout_prob)
  23. def forward(self, x, sublayer):
  24. return x + self.dropout(sublayer(self.norm(x)))
  • nn.Dropout()初始化参数p表示训练时,以概率 p 将输入张量的一些元素归零,对于没有归零的元素将乘以\(\frac{1}{1-p}\)
  • 输入为任意形状的张量,输出为与输入张量形状相同并经过处理的张量。[Source]

Multi-Head Attention 多头注意力层

计算点乘注意力:$ \mathrm{Attention}(Q, K, V) = \mathrm{softmax}(\frac{QK^T}{\sqrt{d_k}})V$

  1. # q, k, v: 表示公式中的 Q, K, V
  2. # mask: 当输入存在掩码时,将 mask 对应位置设置为负无穷
  3. # dropout: dropout层
  4. # return: 注意力层的输出,以及注意力权重
  5. def attention(q, k, v, mask=None, dropout=None):
  6. d_k = q.size(-1)
  7. scores = torch.matmul(q, k.transpose(-2, -1)) / math.sqrt(d_k)
  8. if mask is not None:
  9. scores = scores.masked_fill(mask == 0, -1e9)
  10. p_attn = scores.softmax(dim=-1)
  11. if dropout is not None:
  12. p_attn = dropout(p_attn)
  13. return torch.matmul(p_attn, v), p_attn
  14. # 多头注意力
  15. class MultiHeadedAttention(nn.Module):
  16. # h: 多头注意力的头数
  17. # d_model: 嵌入词的维度
  18. def __init__(self, h, d_model, dropout_prob=0.1):
  19. super(MultiHeadedAttention, self).__init__()
  20. assert d_model % h == 0
  21. self.d_k = d_model // h
  22. self.h = h
  23. self.linears = clones(nn.Linear(d_model, d_model), 4)
  24. self.attn = None
  25. self.dropout = nn.Dropout(p=dropout_prob)
  26. def forward(self, q, k, v, mask=None):
  27. if mask is not None:
  28. mask = mask.unsqueeze(1) # 相同的mask应用于所有的注意力头h
  29. batch_size = q.size(0)
  30. # 1) 执行线性变换,将 d_model 维度的 x 分割成 h 个 d_k 维度
  31. q, k, v = [
  32. # 通过 view 改变张量形状,并使用 transpose 方法交换张量维度
  33. lin(x).view(batch_size, -1, self.h, self.d_k).transpose(1, 2)
  34. for lin, x in zip(self.linears, (q, k, v))
  35. ]
  36. # 2) 将 attention 用于每个 batch 的投影向量上
  37. x, self.attn = attention(q, k, v, mask=mask, dropout=self.dropout)
  38. # 3) 通过线性层连接多头注意力计算完的向量
  39. x = x.transpose(1, 2).contiguous().view(batch_size, -1, self.h * self.d_k)
  40. return self.linears[-1](x)

关于contiguous()transpose()不改变张量物理上的存储顺序,而是改变了查看时逻辑上的顺序,使得在内存上不连续(可以通过is_contiguous()查看张量是否是连续的)。

如果不是连续的,可以通过contiguous()方法返回内存上连续、数值上相同的张量。view()方法改变张量的形状需要张量是连续的。[Source]

Feed Forward 前馈网络层

由两个线性层组成,中间使用 ReLU 激活函数:\(\mathrm{FFN}(x)=\max(0, xW_1 + b_1) W_2 + b_2\)

  1. # 基于位置的前馈网络
  2. class PositionwiseFeedForward(nn.Module):
  3. # d_model: 嵌入词的维度
  4. # d_ff: 前馈网络中间层的维度
  5. def __init__(self, d_model, d_ff, dropout_prob=0.1):
  6. super(PositionwiseFeedForward, self).__init__()
  7. self.w_1 = nn.Linear(d_model, d_ff)
  8. self.w_2 = nn.Linear(d_ff, d_model)
  9. self.dropout = nn.Dropout(p=dropout_prob)
  10. def forward(self, x):
  11. return self.w_2(self.dropout(self.w_1(x).relu()))

编码层

每个编码层,含一个多头注意力层,一个前馈网络层,以及两个用于残差连接与标准化层分别跟在两个子层后面。N 个编码层组成编码器,每层的编码层的输出作为下一层的输入。

  1. # 编码层
  2. class EncoderLayer(nn.Module):
  3. # size: 参数矩阵的shape,
  4. # self_attn: 多头注意力层
  5. # feed_forward: 前馈网络层
  6. # dropout_prob: dropout概率
  7. def __init__(self, size, self_attn, feed_forward, dropout_prob):
  8. super(EncoderLayer, self).__init__()
  9. self.self_attn = self_attn
  10. self.feed_forward = feed_forward
  11. self.sublayer = clones(SublayerConnection(size, dropout_prob), 2)
  12. self.size = size
  13. def forward(self, x, mask):
  14. x = self.sublayer[0](x, lambda i: self.self_attn(i, i, i, mask))
  15. return self.sublayer[1](x, self.feed_forward)
  16. # 编码器:由 N 个相同的层组成
  17. class Encoder(nn.Module):
  18. def __init__(self, layer, n):
  19. super(Encoder, self).__init__()
  20. self.layers = clones(layer, n)
  21. self.norm = LayerNorm(layer.size)
  22. def forward(self, x, mask):
  23. for layer in self.layers:
  24. x = layer(x, mask)
  25. return self.norm(x)

EncoderLayerforward()内的x = self.sublayer[0](x, lambda i: self.self_attn(i, i, i, mask)),虽然此处输入的 q,k,v 均为 i 但在注意力层内,它们将分别与对应的 Q,K,V 矩阵(由线性层Linear实现)相乘,得到用于计算注意力的 q,k,v 。

Decoder 解码器

解码器由 N 层解码层组成。结构与编码层相似,由三个子层组成:带掩码的多头注意力层,多头注意力层和前馈网络层。每个子层后跟着一层,用于残差连接与标准化。

对于第二个子层,输入每一解码层的 K,V 为Encoder(第 N 层的编码层)的输出。为了区别输入Encoder和Decoder的嵌入词,分别用 src(Source,源) 和 tgt(Target,目标) 表示。

  1. # 解码层:由多头注意力层、源-目标注意力层和前馈神经网络组成
  2. class DecoderLayer(nn.Module):
  3. # size: 参数矩阵的shape,
  4. # self_attn: 多头注意力层
  5. # src_attn: 源-目标注意力层
  6. # feed_forward: 前馈网络层
  7. # dropout_prob: dropout概率
  8. def __init__(self, size, self_attn, src_attn, feed_forward, dropout_prob):
  9. super(DecoderLayer, self).__init__()
  10. self.size = size
  11. self.self_attn = self_attn
  12. self.src_attn = src_attn
  13. self.feed_forward = feed_forward
  14. self.sublayer = clones(SublayerConnection(size, dropout_prob), 3)
  15. # x: 解码曾输入
  16. # memory: 编码器的输出
  17. # src_mask: 源嵌入词掩码
  18. # tgt_mask: 目标嵌入词掩码
  19. # return: 解码层的输出
  20. def forward(self, x, memory, src_mask, tgt_mask):
  21. m = memory
  22. x = self.sublayer[0](x, lambda i: self.self_attn(i, i, i, tgt_mask))
  23. x = self.sublayer[1](x, lambda i: self.src_attn(i, m, m, src_mask))
  24. return self.sublayer[2](x, self.feed_forward)
  25. # 解码器:由 N 个相同的层组成
  26. class Decoder(nn.Module):
  27. def __init__(self, layer, n):
  28. super(Decoder, self).__init__()
  29. self.layers = clones(layer, n)
  30. self.norm = LayerNorm(layer.size)
  31. def forward(self, x, memory, src_mask, tgt_mask):
  32. for layer in self.layers:
  33. x = layer(x, memory, src_mask, tgt_mask)
  34. return self.norm(x)

2. Generator 生成器

生成器将解码器的输出映射到词汇表上,由一个线性层和一个 softmax 层组成,用于预测下一个token的概率。

  1. # 生成器:线性层和 softmax 层
  2. class Generator(nn.Module):
  3. # d_model: 解码器输出的(嵌入词)向量维度
  4. # vocab: 词汇表的维度大小
  5. def __init__(self, d_model, vocab):
  6. super(Generator, self).__init__()
  7. self.proj = nn.Linear(d_model, vocab)
  8. def forward(self, x):
  9. return log_softmax(self.proj(x), dim=-1) # 对最后一个维度进行 softmax

3. Embedding 嵌入层

使用nn.Embedding构建查找表(Look-Up Table, LUT)。[Source]

  • 初始化时,num_embedding表示嵌入字典大小;embedding_dim表示每个嵌入词向量的维度大小。
  • forward()中使用时,输入维度为\(d\)的张量,返回维度为 \(d\times {\rm embedding\_dim}\) 的张量。

文中,作者还将嵌入层返回的张量乘以\(\sqrt{d_{model}}\)

  1. class Embeddings(nn.Module):
  2. def __init__(self, d_model, vocab):
  3. super(Embeddings, self).__init__()
  4. self.lut = nn.Embedding(num_embeddings=vocab, embedding_dim=d_model)
  5. self.d_model = d_model
  6. def forward(self, x):
  7. return self.lut(x) * math.sqrt(self.d_model)

4. Positional Encoding 位置编码

为了使模型学习文本的顺序信息,需要引入位置编码:

\[\begin{cases} PE_{(pos,2i)} = \sin(pos / 10000^{2i/d_{\text{model}}}) \PE_{(pos,2i+1)} = \cos(pos / 10000^{2i/d_{\text{model}}}) \end{cases} \]

  1. class PositionalEncoding(nn.Module):
  2. def __init__(self, d_model, dropout_prob, max_len=5000):
  3. super(PositionalEncoding, self).__init__()
  4. self.dropout = nn.Dropout(p=dropout_prob)
  5. # 计算位置编码
  6. pe = torch.zeros(max_len, d_model) # Shape: max_len x d_model
  7. position = torch.arange(0, max_len).unsqueeze(1) # Shape: max_len x 1
  8. div_term = torch.exp(torch.arange(0, d_model, 2) * -(math.log(10000) / d_model))
  9. res = position * div_term # Shape: max_len x d_model/2
  10. pe[:, 0::2] = torch.sin(res)
  11. pe[:, 1::2] = torch.cos(res)
  12. pe = pe.unsqueeze(0) # Shape: 1 x max_len x d_model
  13. self.register_buffer('pe', pe)
  14. def forward(self, x):
  15. x = x + self.pe[:, :x.size(1)].requires_grad_(False)
  16. return self.dropout(x)

self.register_buffer()用于将模型训练参数之外的变量注册加缓存,通过register_buffer()登记过的张量,会自动成为模型中的参数,随着模型移动(gpu/cpu)而移动,但是不会随着梯度进行更新。

在PyTorch中,对于梯度更新的需求,有着不同的张量定义方式[2]。

5. 整体架构

  1. class EncoderDecoder(nn.Module):
  2. # encoder: 编码器
  3. # decoder: 解码器
  4. # src_embed: 源嵌入层
  5. # tgt_embed: 目标嵌入层
  6. # generator: 生成器
  7. def __init__(self, encoder, decoder, src_embed, tgt_embed, generator):
  8. super(EncoderDecoder, self).__init__()
  9. self.encoder = encoder
  10. self.decoder = decoder
  11. self.src_embed = src_embed
  12. self.tgt_embed = tgt_embed
  13. self.generator = generator
  14. # src: 源语言句子
  15. # src_mask: 源语言句子掩码
  16. def encode(self, src, src_mask):
  17. return self.encoder(self.src_embed(src), src_mask) # 编码器
  18. # memory: 编码器的输出
  19. # src_mask: 源语言句子掩码
  20. # tgt: 目标语言句子
  21. # tgt_mask: 目标语言句子掩码
  22. def decode(self, memory, src_mask, tgt, tgt_mask):
  23. return self.decoder(self.tgt_embed(tgt), memory, src_mask, tgt_mask)
  24. def forward(self, src, tgt, src_mask, tgt_mask):
  25. memory = self.encode(src, src_mask)
  26. res_dec = self.decode(memory, src_mask, tgt, tgt_mask)
  27. return self.generator(res_dec)
  28. # src_vocab: 源语言词典大小
  29. # tgt_vocab: 目标语言词典大小
  30. # n: 编码器和解码器的层数
  31. # d_model: 嵌入词的维度
  32. # d_ff: 前馈网络中间层的维度
  33. # h: 多头注意力的头数
  34. # dropout_prb: dropout概率
  35. # return: Transformer 模型
  36. def make_model(src_vocab, tgt_vocab, n=6, d_model=512, d_ff=2048, h=8, dropout_prb=0.1):
  37. c = copy.deepcopy
  38. attn = MultiHeadedAttention(h, d_model)
  39. ff = PositionwiseFeedForward(d_model, d_ff, dropout_prb)
  40. position = PositionalEncoding(d_model, dropout_prb)
  41. model = EncoderDecoder(
  42. Encoder(EncoderLayer(d_model, c(attn), c(ff), dropout_prb), n),
  43. Decoder(DecoderLayer(d_model, c(attn), c(attn), c(ff), dropout_prb), n),
  44. nn.Sequential(Embeddings(d_model, src_vocab), c(position)),
  45. nn.Sequential(Embeddings(d_model, tgt_vocab), c(position)),
  46. Generator(d_model, tgt_vocab),
  47. )
  48. # 初始化参数
  49. for p in model.parameters():
  50. if p.dim() > 1:
  51. nn.init.xavier_uniform_(p)
  52. return model

参考文献

  1. The Annotated Transformer
  2. 实测!PyTorch 中 nn.Parameter、register_buffer 和直接把 Tensor 当属性有啥区别?

原文链接:https://www.cnblogs.com/zh-jp/p/18001551

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号