新手解锁语言之力:理解 PyTorch 中 Transformer 组件

news/2024/11/17 23:58:26/

目录

torch.nn子模块transformer详解

nn.Transformer

Transformer 类描述

Transformer 类的功能和作用

Transformer 类的参数

forward 方法

参数

输出

示例代码

注意事项

nn.TransformerEncoder

TransformerEncoder 类描述

TransformerEncoder 类的功能和作用

TransformerEncoder 类的参数

forward 方法

参数

返回类型

形状

示例代码

nn.TransformerDecoder

TransformerDecoder 类描述

TransformerDecoder 类的功能和作用

TransformerDecoder 类的参数

forward 方法

参数

返回类型

形状

示例代码

nn.TransformerEncoderLayer

TransformerEncoderLayer 类描述

TransformerEncoderLayer 类的功能和作用

TransformerEncoderLayer 类的参数

forward 方法

参数

返回类型

形状

示例代码

nn.TransformerDecoderLayer

TransformerDecoderLayer 类描述

TransformerDecoderLayer 类的功能和作用

TransformerDecoderLayer 类的参数

forward 方法

参数

返回类型

形状

示例代码

总结


torch.nn子模块transformer详解

nn.Transformer

Transformer 类描述

torch.nn.Transformer 类是 PyTorch 中实现 Transformer 模型的核心类。基于 2017 年的论文 “Attention Is All You Need”,该类提供了构建 Transformer 模型的完整功能,包括编码器(Encoder)和解码器(Decoder)部分。用户可以根据需要调整各种属性。

Transformer 类的功能和作用
  • 多头注意力: Transformer 使用多头自注意力机制,允许模型同时关注输入序列的不同位置。
  • 编码器和解码器: 包含多个编码器和解码器层,每层都有自注意力和前馈神经网络。
  • 适用范围广泛: 被广泛用于各种 NLP 任务,如语言翻译、文本生成等。
Transformer 类的参数
  1. d_model (int): 编码器/解码器输入的特征数(默认值为512)。
  2. nhead (int): 多头注意力模型中的头数(默认值为8)。
  3. num_encoder_layers (int): 编码器中子层的数量(默认值为6)。
  4. num_decoder_layers (int): 解码器中子层的数量(默认值为6)。
  5. dim_feedforward (int): 前馈网络模型的维度(默认值为2048)。
  6. dropout (float): Dropout 值(默认值为0.1)。
  7. activation (str 或 Callable): 编码器/解码器中间层的激活函数,默认为 ReLU。
  8. custom_encoder/decoder (可选): 自定义的编码器或解码器(默认值为None)。
  9. layer_norm_eps (float): 层归一化组件中的 eps 值(默认值为1e-5)。
  10. batch_first (bool): 如果为 True,则输入和输出张量的格式为 (batch, seq, feature)(默认值为False)。
  11. norm_first (bool): 如果为 True,则在其他注意力和前馈操作之前进行层归一化(默认值为False)。
  12. bias (bool): 如果设置为 False,则线性和层归一化层将不学习附加偏置(默认值为True)。
forward 方法

forward 方法用于处理带掩码的源/目标序列。

参数
  • src (Tensor): 编码器的输入序列。
  • tgt (Tensor): 解码器的输入序列。
  • src/tgt/memory_mask (可选): 序列掩码。
  • src/tgt/memory_key_padding_mask (可选): 键填充掩码。
  • src/tgt/memory_is_causal (可选): 指定是否应用因果掩码。
输出
  • 输出 Tensor 的形状为 (T, N, E)(N, T, E)(如果 batch_first=True),其中 T 是目标序列长度,N 是批次大小,E 是特征数。
示例代码
import torch
import torch.nn as nn# 创建 Transformer 实例
transformer_model = nn.Transformer(nhead=16, num_encoder_layers=12)# 输入数据
src = torch.rand((10, 32, 512))
tgt = torch.rand((20, 32, 512))# 前向传播
out = transformer_model(src, tgt)

这段代码展示了如何创建并使用 Transformer 模型。在这个例子中,srctgt 分别是随机生成的编码器和解码器的输入张量。输出 out 是模型的最终输出。

注意事项
  • 掩码生成: 可以使用 generate_square_subsequent_mask 方法来生成序列的因果掩码。
  • 配置灵活性: 由于 Transformer 类的可配置性,用户可以轻松调整模型结构以适应不同的任务需求。

nn.TransformerEncoder

TransformerEncoder 类描述

torch.nn.TransformerEncoder 类在 PyTorch 中实现了 Transformer 模型的编码器部分。它是一系列编码器层的堆叠,用户可以通过这个类构建类似于 BERT 的模型。

TransformerEncoder 类的功能和作用
  • 多层编码器结构: TransformerEncoder 由多个 Transformer 编码器层组成,每一层都包括自注意力机制和前馈网络。
  • 适用于各种 NLP 任务: 可用于语言模型、文本分类等多种自然语言处理任务。
  • 灵活性和可定制性: 用户可以自定义编码器层的数量和层参数,以适应不同的应用需求。
TransformerEncoder 类的参数
  1. encoder_layer: TransformerEncoderLayer 实例,表示单个编码器层(必需)。
  2. num_layers: 编码器中子层的数量(必需)。
  3. norm: 层归一化组件(可选)。
  4. enable_nested_tensor: 如果为 True,则输入会自动转换为嵌套张量(在输出时转换回来),当填充率较高时,这可以提高 TransformerEncoder 的整体性能。默认为 True(启用)。
  5. mask_check: 是否检查掩码。默认为 True。
forward 方法

forward 方法用于顺序通过编码器层处理输入。

参数
  • src (Tensor): 编码器的输入序列(必需)。
  • mask (可选 Tensor): 源序列的掩码(可选)。
  • src_key_padding_mask (可选 Tensor): 批次中源键的掩码(可选)。
  • is_causal (可选 bool): 如指定,应用因果掩码。默认为 None;尝试检测因果掩码。
返回类型
  • Tensor
形状
  • 请参阅 Transformer 类中的文档。
示例代码
import torch
import torch.nn as nn# 创建 TransformerEncoderLayer 实例
encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)# 创建 TransformerEncoder 实例
transformer_encoder = nn.TransformeEncoder(encoder_layer, num_layers=6)# 输入数据
src = torch.rand(10, 32, 512)  # 随机输入# 前向传播
out = transformer_encoder(src)

这段代码展示了如何创建并使用 TransformerEncoder。在这个例子中,src 是随机生成的输入张量,transformer_encoder 是由 6 层编码器层组成的编码器。输出 out 是编码器的最终输出。

nn.TransformerDecoder

TransformerDecoder 类描述

torch.nn.TransformerDecoder 类实现了 Transformer 模型的解码器部分。它是由多个解码器层堆叠而成,用于处理编码器的输出并生成最终的输出序列。

TransformerDecoder 类的功能和作用
  • 多层解码器结构: TransformerDecoder 由多个 Transformer 解码器层组成,每层包括自注意力机制、交叉注意力机制和前馈网络。
  • 处理编码器输出: 解码器用于处理编码器的输出,并根据此输出和之前生成的输出序列生成新的输出。
  • 应用场景广泛: 适用于各种基于 Transformer 的生成任务,如机器翻译、文本摘要等。
TransformerDecoder 类的参数
  1. decoder_layer: TransformerDecoderLayer 实例,表示单个解码器层(必需)。
  2. num_layers: 解码器中子层的数量(必需)。
  3. norm: 层归一化组件(可选)。
forward 方法

forward 方法用于将输入(及掩码)依次通过解码器层进行处理。

参数
  • tgt (Tensor): 解码器的输入序列(必需)。
  • memory (Tensor): 编码器的最后一层输出序列(必需)。
  • tgt/memory_mask (可选 Tensor): 目标/内存序列的掩码(可选)。
  • tgt/memory_key_padding_mask (可选 Tensor): 批次中目标/内存键的掩码(可选)。
  • tgt_is_causal/memory_is_causal (可选 bool): 指定是否应用因果掩码。
返回类型
  • Tensor
形状
  • 请参阅 Transformer 类中的文档。
示例代码
import torch
import torch.nn as nn# 创建 TransformerDecoderLayer 实例
decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8)# 创建 TransformerDecoder 实例
transformer_decoder = nn.TransformerDecoder(decoder_layer, num_layers=6)# 输入数据
memory = torch.rand(10, 32, 512)  # 编码器的输出
tgt = torch.rand(20, 32, 512)     # 解码器的输入# 前向传播
out = transformer_decoder(tgt, memory)

这段代码展示了如何创建并使用 TransformerDecoder。在这个例子中,memory 是编码器的输出,tgt 是解码器的输入。输出 out 是解码器的最终输出。

nn.TransformerEncoderLayer

TransformerEncoderLayer 类描述

torch.nn.TransformerEncoderLayer 类构成了 Transformer 编码器的基础单元,每个编码器层包含一个自注意力机制和一个前馈网络。这种标准的编码器层基于论文 "Attention Is All You Need"。

TransformerEncoderLayer 类的功能和作用
  • 自注意力机制: 通过自注意力机制,每个编码器层能够捕获输入序列中不同位置间的关系。
  • 前馈网络: 为序列中的每个位置提供额外的转换。
  • 灵活性和可定制性: 用户可以根据应用需求修改或实现不同的编码器层。
TransformerEncoderLayer 类的参数
  1. d_model (int): 输入中预期的特征数量(必需)。
  2. nhead (int): 多头注意力模型中的头数(必需)。
  3. dim_feedforward (int): 前馈网络模型的维度(默认值=2048)。
  4. dropout (float): Dropout 值(默认值=0.1)。
  5. activation (str 或 Callable): 中间层的激活函数,可以是字符串("relu" 或 "gelu")或一元可调用对象。默认值:relu。
  6. layer_norm_eps (float): 层归一化组件中的 eps 值(默认值=1e-5)。
  7. batch_first (bool): 如果为 True,则输入和输出张量以 (batch, seq, feature) 的格式提供。默认值:False(seq, batch, feature)。
  8. norm_first (bool): 如果为 True,则在注意力和前馈操作之前进行层归一化。否则之后进行。默认值:False(之后)。
  9. bias (bool): 如果设置为 False,则线性和层归一化层将不会学习附加偏置。默认值:True。
forward 方法

forward 方法用于将输入通过编码器层进行处理。

参数
  • src (Tensor): 传递给编码器层的序列(必需)。
  • src_mask (可选 Tensor): 源序列的掩码(可选)。
  • src_key_padding_mask (可选 Tensor): 批次中源键的掩码(可选)。
  • is_causal (bool): 如果指定,则应用因果掩码作为源掩码。默认值:False。
返回类型
  • Tensor
形状
  • 请参阅 Transformer 类中的文档。
示例代码
import torch
import torch.nn as nn# 创建 TransformerEncoderLayer 实例
encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)# 输入数据
src = torch.rand(10, 32, 512)  # 随机输入# 前向传播
out = encoder_layer(src)

或者在 batch_first=True 的情况下:

encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8, batch_first=True)
src = torch.rand(32, 10, 512)
out = encoder_layer(src)

这段代码展示了如何创建并使用 TransformerEncoderLayer。在这个例子中,src 是随机生成的输入张量。输出 out 是编码器层的输出。

nn.TransformerDecoderLayer

TransformerDecoderLayer 类描述

torch.nn.TransformerDecoderLayer 类是构成 Transformer 模型解码器的基本单元。这个标准的解码器层基于论文 "Attention Is All You Need"。它由自注意力机制、多头注意力机制和前馈网络组成。

TransformerDecoderLayer 类的功能和作用
  • 自注意力和多头注意力机制: 使解码器能够同时关注输入序列的不同部分。
  • 前馈网络: 为序列中的每个位置提供额外的转换。
  • 灵活性和可定制性: 用户可以根据应用需求修改或实现不同的解码器层。
TransformerDecoderLayer 类的参数
  1. d_model (int): 输入中预期的特征数量(必需)。
  2. nhead (int): 多头注意力模型中的头数(必需)。
  3. dim_feedforward (int): 前馈网络模型的维度(默认值=2048)。
  4. dropout (float): Dropout 值(默认值=0.1)。
  5. activation (str 或 Callable): 中间层的激活函数,可以是字符串("relu" 或 "gelu")或一元可调用对象。默认值:relu。
  6. layer_norm_eps (float): 层归一化组件中的 eps 值(默认值=1e-5)。
  7. batch_first (bool): 如果为 True,则输入和输出张量以 (batch, seq, feature) 的格式提供。默认值:False(seq, batch, feature)。
  8. norm_first (bool): 如果为 True,则在自注意力、多头注意力和前馈操作之前进行层归一化。否则之后进行。默认值:False(之后)。
  9. bias (bool): 如果设置为 False,则线性和层归一化层将不会学习附加偏置。默认值:True。
forward 方法

forward 方法用于将输入(及掩码)通过解码器层进行处理。

参数
  • tgt (Tensor): 解码器层的输入序列(必需)。
  • memory (Tensor): 编码器的最后一层输出序列(必需)。
  • tgt/memory_mask (可选 Tensor): 目标/内存序列的掩码(可选)。
  • tgt/memory_key_padding_mask (可选 Tensor): 批次中目标/内存键的掩码(可选)。
  • tgt_is_causal/memory_is_causal (bool): 指定是否应用因果掩码。
返回类型
  • Tensor
形状
  • 请参阅 Transformer 类中的文档。
示例代码
import torch
import torch.nn as nn# 创建 TransformerDecoderLayer 实例
decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8)# 输入数据
memory = torch.rand(10, 32, 512)  # 编码器的输出
tgt = torch.rand(20, 32, 512)     # 解码器的输入# 前向传播
out = decoder_layer(tgt, memory)

 或者在 batch_first=True 的情况下:

decoder_layer = nn.TransformerDecoderLayer(d_model=512, nhead=8, batch_first=True)
memory = torch.rand(32, 10, 512)
tgt = torch.rand(32, 20, 512)
out = decoder_layer(tgt, memory)

 这段代码展示了如何创建并使用 TransformerDecoderLayer。在这个例子中,memory 是编码器的输出,tgt 是解码器的输入。输出 out 是解码器层的输出。

总结

        本篇博客深入探讨了 PyTorch 的 torch.nn 子模块中与 Transformer 相关的核心组件。我们详细介绍了 nn.Transformer 及其构成部分 —— 编码器 (nn.TransformerEncoder) 和解码器 (nn.TransformerDecoder),以及它们的基础层 —— nn.TransformerEncoderLayernn.TransformerDecoderLayer。每个部分的功能、作用、参数配置和实际应用示例都被全面解析。这些组件不仅提供了构建高效、灵活的 NLP 模型的基础,还展示了如何通过自注意力和多头注意力机制来捕捉语言数据中的复杂模式和长期依赖关系。


http://www.ppmy.cn/news/1293496.html

相关文章

项目-苍穹外卖基础(持续更新中~)

day1: login的后端实现: day 2:

【背诵复习】软件体系结构 第五章

第五章 软件体系结构的 设计与评估 红字需全部背诵 一、生命周期模型: 二、属性驱动的设计方法: 质量属性设计策略: 三、基于模式的设计方法 四、模块设计 与 评估方法 核心是分解,大化小 模块化设计评价标准: 模块化设…

SpringMVC之拦截器和异常处理器

学习的最大理由是想摆脱平庸,早一天就多一份人生的精彩;迟一天就多一天平庸的困扰。各位小伙伴,如果您: 想系统/深入学习某技术知识点… 一个人摸索学习很难坚持,想组团高效学习… 想写博客但无从下手,急需…

Activiti7官方在线流程设计器下载和部署

文章目录 一、流程设计器下载二、流程设计器简单运行三、流程设计器简单使用四、流程设计器持久化持久化会遇到的常见错误 五、流程设计器汉化说明菜单汉化操作汉化 参考文档 一、流程设计器下载 官网下载地址:https://www.activiti.org/get-started 点击直接获取官…

计算机网络-以太网交换基础

一、网络设备的演变 最初的网络在两台设备间使用传输介质如网线等进行连接就可以进行通信。但是随着数据的传输需求,多个设备需要进行数据通信时就需要另外的设备进行网络互联,并且随着网络传输的需求不断更新升级。从一开始的两台设备互联到企业部门内部…

微信小程序使用mqtt开发可以,真机不行

以下可以解决我的问题,请一步一步跟着做,有可能版本不一样就失败了 一、下载mqtt.js 前往蓝奏云 https://wwue.lanzouo.com/iQPdc1k50hpe 下载好后将.txt改为.js 然后放入项目里 二、连接mqtt const mqtt require(../../utils/mqtt.min); let cli…

“TypeError: Cannot read properties of null (reading ‘getContext‘)“

目录 一、报错截图 二、使用场景 三、代码截图 四、报错原因 五、解决办法 一、报错截图 二、使用场景 第一次在vue项目种使用canvas,跟着网上教程做,标签canvas写好了,dom元素获取了,简单“画”了一下,运行之后报…

Node.js中的模块,常用模块具体代码示例

核心模块:https://blog.csdn.net/kkkys_kkk/article/details/135409851?spm1001.2014.3001.5501 目录 第三方模块 代码示例 Express示例 Lodash示例 MongoDB示例 Async示例 Request示例 发送GET 发送POST请求 自定义模块 创建步骤 常见示例 导出一个函数&a…