实验14 RNN的记忆能力和梯度爆炸实验

embedded/2024/12/27 17:10:48/

一 循环神经网络的记忆能力

1.数据集构建

创建了一个DigitSumDataset 类,包括初始化函数init、数据生成函数 generate_data、数据加载函数 load_data、__len__ 方法、__getitem__ 方法。

init函数:接受的参数是data_path( 存放数据集的目录,用于加载数据)、length(数据序列的长度)、k( 数据增强的数量)、mode(决定生成训练集、验证集还是测试集),同时在init函数中初始化这些变量,然后是一个选择函数,如果传入了data_path,就调用load_data从文件中加载数据,否则调用generate_data生成数据集。

generate_data通过两层循环生成基础样本,然后通过数据增强增加样本多样性

load_data从文件中加载数据

代码:

import os
import random
import numpy as np
import torch
from matplotlib import pyplot as plt
from torch import optim
from torch.utils.data import Dataset, DataLoader#数据集构建
# 固定随机种子
random.seed(0)
np.random.seed(0)
class DigitSumDataset(Dataset):def __init__(self, data_path=None, length=None, k=None, mode='train'):"""初始化数据集如果传入了data_path,则从文件加载数据;如果传入了length和k,则生成数据集。参数:data_path: 存放数据集的目录,用于加载数据length: 数据序列的长度(仅用于生成数据集时)k: 数据增强的数量(仅用于生成数据集时)mode: 'train'/'dev'/'test',决定生成训练集、验证集还是测试集(仅用于生成数据集时)"""self.data_path = data_pathself.length = lengthself.k = kself.mode = modeif data_path:  # 从文件加载数据self.examples = self.load_data(data_path)else:  # 生成数据if length < 3 or k <= 0:raise ValueError("The length of data should be greater than 2 and k should be greater than 0.")self.examples = self.generate_data()def generate_data(self):"""生成数据:生成指定长度的数字序列,并进行数据增强"""base_examples = []for n1 in range(0, 10):for n2 in range(0, 10):seq = [n1, n2] + [0] * (self.length - 2)label = n1 + n2base_examples.append((seq, label))examples = []for base_example in base_examples:for _ in range(self.k):idx = np.random.randint(2, self.length)val = np.random.randint(0, 10)seq = base_example[0].copy()label = base_example[1]seq[idx] = valexamples.append((seq, label))return examplesdef load_data(self, data_path):"""从文件加载数据"""def _load_file(file_path):examples = []with open(file_path, "r", encoding="utf-8") as f:for line in f.readlines():items = line.strip().split("\t")seq = [int(i) for i in items[0].split(" ")]label = int(items[1])examples.append((seq, label))return examples# 加载训练集、验证集、测试集train_examples = _load_file(os.path.join(data_path, "train.txt"))dev_examples = _load_file(os.path.join(data_path, "dev.txt"))test_examples = _load_file(os.path.join(data_path, "test.txt"))return train_examples if self.mode == 'train' else dev_examples if self.mode == 'dev' else test_examplesdef __len__(self):return len(self.examples)def __getitem__(self, idx):seq, label = self.examples[idx]seq_tensor = torch.tensor(seq, dtype=torch.long)label_tensor = torch.tensor(label, dtype=torch.long)return seq_tensor, label_tensor

2.模型构建

定义了一个嵌入层(将输入的数字序列进行向量化,即将每个数字映射为向量)和SRN层,然后定义了定义了一个实现数字预测的模型 Model_RNN4SeqClass,里面用到了嵌入层和SRN层。

①Embedding:函数会接收两个参数,分别是数据数据的总数量和嵌入向量的维度。实现了一个简单的嵌入层,用于将输入的数字索引映射为对应的嵌入向量。

②SRN层:里面有三个函数,分别是init初始化函数,init_state初始化隐状态函数,forward函数,循环执行RNN,最终返回一个最后的隐向量。接下来详细解释一下内部实现:

init函数:接受输入的维度和隐状态的维度,并且输入的维度和隐状态的维度,这两个维度关乎到模型参数W,U,b的大小。因为输入权重W的大小是input_size*hidden*size,隐层权重U的大小是hidden_size*hidden_size,偏置b的大小是1*hidden_size。所以直接定义这样大小的全零矩阵就可以。

init_state函数:初始化隐状态向量,定义一个batch_size*hidden_size大小的全零矩阵。

forward函数:首选利用shape获取输入的形状为batch_size*seq_len*input_size。然后判断一下初始的隐状态是不是没有提供,如果没有提供,就利用init_state函数初始化一个隐状态。然后就是循环操作,循环的是每个序列,例如对于长度是5的数据来说,seq_len就是5,我们要遍历seq_len,依次执行各个序列。循环中,每个当前时刻的输入step_input数据的形状为batch_size*input*size,利用输入乘以权重W,隐层乘以权重U加上偏置b,最后把结果利用tanh函数激活,得到当前时刻的隐状态。

③Model_RNN4SeqClass:包括一个init函数和forward函数

init函数接受的初始参数分别是模型model、词典大小num_digits(嵌入函数需要用到)、输入维度input_size,隐层维度hidden_size,类别数num_classes。

然后开始定义变量:定义模型、词典大小、嵌入向量维度,定义embedding层,定义线性层(输入维度是隐层维度,输出维度是分类数),输出分类的结果。

forward函数:首先利用嵌入函数将数字序列映射为向量,然后调用RNN模型得到最后的隐层状态,最后利用linear函数,得到在每个类别上的logits

代码:

# 嵌入层
class Embedding(nn.Module):def __init__(self, num_embeddings, embedding_dim):super(Embedding, self).__init__()self.W = nn.init.xavier_uniform_(torch.empty(num_embeddings, embedding_dim),gain=1.0)def forward(self, inputs):# 根据索引获取对应词向量embs = self.W[inputs]return embs# 简单循环网络(SRN)
class SRN(nn.Module):def __init__(self, input_size, hidden_size):super(SRN, self).__init__()# 嵌入向量的维度self.input_size = input_size# 隐状态的维度self.hidden_size = hidden_size# 定义模型参数W,其shape为 input_size x hidden_sizeself.W = nn.Parameter(torch.zeros(input_size, hidden_size,dtype=torch.float32))# 定义模型参数U,其shape为 hidden_size x hidden_sizeself.U = nn.Parameter(torch.zeros(hidden_size, hidden_size,dtype=torch.float32))# 定义模型参数b,其shape为 1 x hidden_sizeself.b = nn.Parameter(torch.zeros(1, hidden_size,dtype=torch.float32))def init_state(self, batch_size):hidden = torch.zeros(batch_size, self.hidden_size,dtype=torch.float32)# 初始化隐状态向量return hiddendef forward(self, inputs, hidden_state=None):"""inputs: 输入数据,形状为 (batch_size, seq_len, input_size)hidden_state: 初始化隐状态,形状为 (batch_size, hidden_size)"""batch_size, seq_len, input_size = inputs.shape# 初始化起始状态的隐向量,如果没有提供if hidden_state is None:hidden_state = self.init_state(batch_size)# 循环执行RNN计算for step in range(seq_len):# 获取当前时刻的输入数据step_input,形状为 (batch_size, input_size)step_input = inputs[:, step, :]# 计算当前时刻的隐状态,使用tanh激活函数hidden_state = torch.tanh(torch.matmul(step_input, self.W) + torch.matmul(hidden_state, self.U) + self.b)return hidden_state# 基于RNN实现数字预测的模型
class Model_RNN4SeqClass(nn.Module):def __init__(self, model, num_digits, input_size, hidden_size, num_classes):super(Model_RNN4SeqClass, self).__init__()# 传入实例化的RNN层,例如SRNself.rnn_model = model# 词典大小self.num_digits = num_digits# 嵌入向量的维度self.input_size = input_size# 定义Embedding层self.embedding = Embedding(num_digits, input_size)# 定义线性层self.linear = nn.Linear(hidden_size, num_classes)def forward(self, inputs):# 将数字序列映射为相应向量inputs_emb = self.embedding(inputs)# 调用RNN模型hidden_state = self.rnn_model(inputs_emb)# 使用最后一个时刻的状态进行数字预测logits = self.linear(hidden_state)return logits

3.模型训练

首先创建runner类,然后遍历不同的序列长度,生成数据集,定义模型、损失函数、优化器、实例化runner类,调用train函数开始训练,观察模型在训练集和验证集上面的损失变化。

Runner类还是使用之前的runner类,里面包括train函数,负责遍历训练集得到损失并反向优化参数;evaluate函数用于计算模型在验证集上的损失,并根据在验证集上的损失保存最优模型,不需要优化参数;test函数用于计算测试集在最优模型上的准确率。

定义lengths = [5, 10, 15, 20, 25, 30, 35],遍历这个序列,对于每个length

利用DigitSumDataset函数分别生成训练集、验证集、测试集,然后定义实例化模型需要用到的输入维度、隐层维度、输入数字的类别数和预测数字的类别数。实例化SRN模型得到base_model,然后实例化模型Model_RNN4SeqClass,定义损失函数为交叉熵损失、优化器为Adam,然后实例化runner类,调用train函数开始训练。

代码:

#模型训练
class Runner:def __init__(self, model, train_loader, val_loader, test_loader, criterion, optimizer):self.model = modelself.train_loader = train_loaderself.val_loader = val_loaderself.test_loader = test_loaderself.criterion = criterionself.optimizer = optimizerself.best_model = Noneself.best_val_loss = float('inf')self.train_losses = []  # 存储训练损失self.val_losses = []    # 存储验证损失def train(self, epochs):for epoch in range(epochs):self.model.train()running_loss = 0.0for inputs, labels in self.train_loader:self.optimizer.zero_grad()outputs = self.model(inputs)loss = self.criterion(outputs, labels)loss.backward()self.optimizer.step()running_loss += loss.item()# 计算平均训练损失train_loss = running_loss / len(self.train_loader)self.train_losses.append(train_loss)# 计算验证集上的损失val_loss = self.evaluate()self.val_losses.append(val_loss)print(f'Epoch [{epoch + 1}/{epochs}], Train Loss: {train_loss:.4f}, Val Loss: {val_loss:.4f}')# 如果验证集上的损失最小,保存模型if val_loss < self.best_val_loss:self.best_val_loss = val_lossself.best_model = self.model.state_dict()plt.figure(figsize=(10, 6))plt.plot(self.train_losses, label='Train Loss')plt.plot(self.val_losses, label='Validation Loss')plt.xlabel('Epoch')plt.ylabel('Loss')plt.title('Loss Curve')plt.legend()plt.grid()plt.show()def evaluate(self):self.model.eval()val_loss = 0.0with torch.no_grad():for inputs, labels in self.val_loader:outputs = self.model(inputs)loss = self.criterion(outputs, labels)val_loss += loss.item()return val_loss / len(self.val_loader)def test(self):self.model.load_state_dict(self.best_model)self.model.eval()correct = 0total = 0with torch.no_grad():for inputs, labels in self.test_loader:outputs = self.model(inputs)_, predicted = torch.max(outputs, 1)total += labels.size(0)correct += (predicted == labels).sum().item()test_accuracy = correct / totalprint(f'Test Accuracy: {test_accuracy:.4f}')def predict(self, image):self.model.eval()with torch.no_grad():output = self.model(image)_, predicted = torch.max(output, 1)return predicted.item()lengths = [5, 10, 15, 20, 25, 30, 35]
# lengths = [5]
k_train = 3  # 训练集数据增强的数量
k_test_val = 1  # 验证集和测试集数据增强的数量# 循环不同长度的序列
for length in lengths:# 生成训练集train_dataset = DigitSumDataset(length=length, k=k_train, mode='train')train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)# 生成验证集dev_dataset = DigitSumDataset(length=length, k=k_test_val, mode='dev')dev_loader = DataLoader(dev_dataset, batch_size=64, shuffle=False)# 生成测试集test_dataset = DigitSumDataset(length=length, k=k_test_val, mode='test')test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)# 输入数字的类别数num_digits = 10# 将数字映射为向量的维度input_size = 32# 隐状态向量的维度shidden_size = 32# 预测数字的类别数num_classes = 19base_model = SRN(input_size, hidden_size)model = Model_RNN4SeqClass(base_model, num_digits, input_size, hidden_size, num_classes)# 定义损失函数和优化器criterion = nn.CrossEntropyLoss()optimizer = optim.Adam(model.parameters(), lr=0.001)# 创建Runner实例,并进行训练runner = Runner(model, train_loader, dev_loader, test_loader, criterion, optimizer)print(f"Training model for sequence length {length}...")# 训练并测试模型runner.train(epochs=600)  # 训练模型

4.模型评价

调用test函数进行模型测试

代码:

runner.test()  # 测试模型

5实验结果

1.序列长度分别是5、10、15 时的loss变化和准确率

 从输出结果看,随着数据序列长度的增加,虽然训练集损失逐渐逼近于0,但是验证集损失整体趋向越来越大,这表明当序列变长时,SRN模型保持序列长期依赖能力在逐渐变弱,越来越无法学习到有用的知识.并且,随着序列长度的增加,测试集的准确度整体趋势是降低的,这同样说明SRN模型保持长期依赖的能力在不断降低.

二 梯度爆炸实验

1.梯度打印函数

定义梯度打印函数custom_print_log,接受的参数是runner。

分别初始化W、U、b的梯度L2范数 W_grad_l2、U_grad_l2 和 b_grad_l2 为 0。使用 model.named_parameters() 遍历模型的所有参数,它会返回每个参数的名字(name)和对应的张量(param)。如果变量的名称为rnn_model.W,就获取这个参数的L2范数赋值给W_grad_l2。在函数体外创建了三个列表W_list = []、U_list = []、b_list = [],把每个epoch得到的梯度分别存储到列表中,训练结束后可视化梯度变化。

代码:

W_list = []
U_list = []
b_list = []# 计算梯度范数
def custom_print_log(runner):model = runner.modelW_grad_l2, U_grad_l2, b_grad_l2 = 0, 0, 0# 遍历模型的所有参数for name, param in model.named_parameters():if name == "rnn_model.W":  # 针对W参数计算L2范数W_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数elif name == "rnn_model.U":  # 针对U参数计算L2范数U_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数elif name == "rnn_model.b":  # 针对b参数计算L2范数b_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数# 打印梯度L2范数print(f"[Training] W_grad_l2: {W_grad_l2:.5f}, U_grad_l2: {U_grad_l2:.5f}, b_grad_l2: {b_grad_l2:.5f}")# 保存每个步骤的梯度范数W_list.append(W_grad_l2)U_list.append(U_grad_l2)b_list.append(b_grad_l2)

2.复现梯度爆炸现象

把优化器改为SGD,设置学习率为0.2,调用train函数训练,观察W、U、b梯度变化。

代码:

from random import randomimport numpy as np
import torch
from matplotlib import pyplot as plt
from torch import nn, optim
from torch.utils.data import DataLoader
import os
import random
import numpy as np
import torch
from matplotlib import pyplot as plt
from torch import optim
from torch.utils.data import Dataset, DataLoader#数据集构建
# 固定随机种子
random.seed(0)
np.random.seed(0)
class DigitSumDataset(Dataset):def __init__(self, data_path=None, length=None, k=None, mode='train'):"""初始化数据集如果传入了data_path,则从文件加载数据;如果传入了length和k,则生成数据集。参数:data_path: 存放数据集的目录,用于加载数据length: 数据序列的长度(仅用于生成数据集时)k: 数据增强的数量(仅用于生成数据集时)mode: 'train'/'dev'/'test',决定生成训练集、验证集还是测试集(仅用于生成数据集时)"""self.data_path = data_pathself.length = lengthself.k = kself.mode = modeif data_path:  # 从文件加载数据self.examples = self.load_data(data_path)else:  # 生成数据if length < 3 or k <= 0:raise ValueError("The length of data should be greater than 2 and k should be greater than 0.")self.examples = self.generate_data()def generate_data(self):"""生成数据:生成指定长度的数字序列,并进行数据增强"""base_examples = []for n1 in range(0, 10):for n2 in range(0, 10):seq = [n1, n2] + [0] * (self.length - 2)label = n1 + n2base_examples.append((seq, label))examples = []for base_example in base_examples:for _ in range(self.k):idx = np.random.randint(2, self.length)val = np.random.randint(0, 10)seq = base_example[0].copy()label = base_example[1]seq[idx] = valexamples.append((seq, label))return examplesdef load_data(self, data_path):"""从文件加载数据"""def _load_file(file_path):examples = []with open(file_path, "r", encoding="utf-8") as f:for line in f.readlines():items = line.strip().split("\t")seq = [int(i) for i in items[0].split(" ")]label = int(items[1])examples.append((seq, label))return examples# 加载训练集、验证集、测试集train_examples = _load_file(os.path.join(data_path, "train.txt"))dev_examples = _load_file(os.path.join(data_path, "dev.txt"))test_examples = _load_file(os.path.join(data_path, "test.txt"))return train_examples if self.mode == 'train' else dev_examples if self.mode == 'dev' else test_examplesdef __len__(self):return len(self.examples)def __getitem__(self, idx):seq, label = self.examples[idx]seq_tensor = torch.tensor(seq, dtype=torch.long)label_tensor = torch.tensor(label, dtype=torch.long)return seq_tensor, label_tensor# 设定数据集的路径和生成参数
# lengths = [5, 10, 15, 20, 25, 30, 35]
lengths = [5]
k_train = 3  # 训练集数据增强的数量
k_test_val = 1  # 验证集和测试集数据增强的数量#总的模型
import torch
import torch.nn as nn
import torch.nn.functional as F# 嵌入层
class Embedding(nn.Module):def __init__(self, num_embeddings, embedding_dim):super(Embedding, self).__init__()# 定义嵌入层self.embedding = nn.Embedding(num_embeddings, embedding_dim)def forward(self, inputs):# 根据索引获取对应的嵌入向量return self.embedding(inputs)# 简单循环网络(SRN)
class SRN(nn.Module):def __init__(self, input_size, hidden_size):super(SRN, self).__init__()# 嵌入向量的维度self.input_size = input_size# 隐状态的维度self.hidden_size = hidden_size# 定义模型参数W,其shape为 input_size x hidden_sizeself.W = nn.Parameter(torch.randn(input_size, hidden_size))# 定义模型参数U,其shape为 hidden_size x hidden_sizeself.U = nn.Parameter(torch.randn(hidden_size, hidden_size))# 定义模型参数b,其shape为 1 x hidden_sizeself.b = nn.Parameter(torch.randn(1, hidden_size))def init_state(self, batch_size):# 初始化隐状态向量return torch.zeros(batch_size, self.hidden_size)def forward(self, inputs, hidden_state=None):"""inputs: 输入数据,形状为 (batch_size, seq_len, input_size)hidden_state: 初始化隐状态,形状为 (batch_size, hidden_size)"""batch_size, seq_len, input_size = inputs.shape# 初始化起始状态的隐向量,如果没有提供if hidden_state is None:hidden_state = self.init_state(batch_size)# 循环执行RNN计算for step in range(seq_len):# 获取当前时刻的输入数据step_input,形状为 (batch_size, input_size)step_input = inputs[:, step, :]# 计算当前时刻的隐状态,使用tanh激活函数hidden_state = torch.tanh(torch.matmul(step_input, self.W) + torch.matmul(hidden_state, self.U) + self.b)return hidden_state# 基于RNN实现数字预测的模型
class Model_RNN4SeqClass(nn.Module):def __init__(self, model, num_digits, input_size, hidden_size, num_classes):super(Model_RNN4SeqClass, self).__init__()# 传入实例化的RNN层,例如SRNself.rnn_model = model# 词典大小self.num_digits = num_digits# 嵌入向量的维度self.input_size = input_size# 定义Embedding层self.embedding = Embedding(num_digits, input_size)# 定义线性层self.linear = nn.Linear(hidden_size, num_classes)def forward(self, inputs):# 将数字序列映射为相应向量inputs_emb = self.embedding(inputs)# 调用RNN模型hidden_state = self.rnn_model(inputs_emb)# 使用最后一个时刻的状态进行数字预测logits = self.linear(hidden_state)return logitsW_list = []
U_list = []
b_list = []# 计算梯度范数
def custom_print_log(runner):model = runner.modelW_grad_l2, U_grad_l2, b_grad_l2 = 0, 0, 0# 遍历模型的所有参数for name, param in model.named_parameters():if name == "rnn_model.W":  # 针对W参数计算L2范数W_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数elif name == "rnn_model.U":  # 针对U参数计算L2范数U_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数elif name == "rnn_model.b":  # 针对b参数计算L2范数b_grad_l2 = torch.norm(param.grad, p=2).item()  # 获取L2范数# 打印梯度L2范数print(f"[Training] W_grad_l2: {W_grad_l2:.5f}, U_grad_l2: {U_grad_l2:.5f}, b_grad_l2: {b_grad_l2:.5f}")# 保存每个步骤的梯度范数W_list.append(W_grad_l2)U_list.append(U_grad_l2)b_list.append(b_grad_l2)
#模型训练
class Runner:def __init__(self, model, train_loader, val_loader, test_loader, criterion, optimizer):self.model = modelself.train_loader = train_loaderself.val_loader = val_loaderself.test_loader = test_loaderself.criterion = criterionself.optimizer = optimizerself.best_model = Noneself.best_val_loss = float('inf')self.train_losses = []  # 存储训练损失self.val_losses = []    # 存储验证损失def train(self, epochs):for epoch in range(epochs):self.model.train()running_loss = 0.0for inputs, labels in self.train_loader:self.optimizer.zero_grad()outputs = self.model(inputs)loss = self.criterion(outputs, labels)loss.backward()self.optimizer.step()running_loss += loss.item()# 计算平均训练损失train_loss = running_loss / len(self.train_loader)self.train_losses.append(train_loss)# 计算验证集上的损失val_loss = self.evaluate()self.val_losses.append(val_loss)print(f'Epoch [{epoch + 1}/{epochs}], Train Loss: {train_loss:.4f}, Val Loss: {val_loss:.4f}')# 调用自定义函数来打印和记录梯度范数custom_print_log(self)# 如果验证集上的损失最小,保存模型if val_loss < self.best_val_loss:self.best_val_loss = val_lossself.best_model = self.model.state_dict()plt.figure(figsize=(10, 6))plt.plot(self.train_losses, label='Train Loss')plt.plot(self.val_losses, label='Validation Loss')plt.xlabel('Epoch')plt.ylabel('Loss')plt.title('Loss Curve')plt.legend()plt.grid()plt.show()# 可视化梯度L2范数plt.figure(figsize=(10, 6))plt.plot(W_list, label='W Gradient L2 Norm')plt.plot(U_list, label='U Gradient L2 Norm')plt.plot(b_list, label='b Gradient L2 Norm')plt.xlabel('Epoch')plt.ylabel('L2 Norm')plt.title('Gradient L2 Norms Across Epochs')plt.legend()plt.grid()plt.show()def evaluate(self):self.model.eval()val_loss = 0.0with torch.no_grad():for inputs, labels in self.val_loader:outputs = self.model(inputs)loss = self.criterion(outputs, labels)val_loss += loss.item()return val_loss / len(self.val_loader)def test(self):self.model.load_state_dict(self.best_model)self.model.eval()correct = 0total = 0with torch.no_grad():for inputs, labels in self.test_loader:outputs = self.model(inputs)_, predicted = torch.max(outputs, 1)total += labels.size(0)correct += (predicted == labels).sum().item()test_accuracy = correct / totalprint(f'Test Accuracy: {test_accuracy:.4f}')def predict(self, image):self.model.eval()with torch.no_grad():output = self.model(image)_, predicted = torch.max(output, 1)return predicted.item()length=5
# 生成训练集
train_dataset = DigitSumDataset(length=length, k=k_train, mode='train')
train_loader = DataLoader(train_dataset, batch_size=8, shuffle=True)
# 生成验证集
dev_dataset = DigitSumDataset(length=length, k=k_test_val, mode='dev')
dev_loader = DataLoader(dev_dataset, batch_size=8, shuffle=False)
# 生成测试集
test_dataset = DigitSumDataset(length=length, k=k_test_val, mode='test')
test_loader = DataLoader(test_dataset, batch_size=8, shuffle=False)
# 输入数字的类别数
num_digits = 10
# 将数字映射为向量的维度
input_size = 32
# 隐状态向量的维度s
hidden_size = 32
# 预测数字的类别数
num_classes = 19
base_model = SRN(input_size, hidden_size)
model = Model_RNN4SeqClass(base_model, num_digits, input_size, hidden_size, num_classes)
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.2, momentum=0.9)
# 创建Runner实例,并进行训练
runner = Runner(model, train_loader, dev_loader, test_loader, criterion, optimizer)
print(f"Training model for sequence length {length}...")# 训练并测试模型
runner.train(epochs=600)  # 训练模型
runner.test()  # 测试模型print(f"Finished training for length {length}.\n")

3.使用梯度截断解决梯度爆炸问题

在参数更新前面加上一行代码:
nn.utils.clip_grad_norm_(parameters=self.model.parameters(),max_norm=5, norm_type=1),用于控制梯度范数,防止梯度爆炸。

4.实验结果

1.梯度爆炸现象

通过观察发现,梯度范数急剧变大,而后梯度范数几乎为0. 这是因为TanhSigmoid型函数,其饱和区的导数接近于0,由于梯度的急剧变化,参数数值变的较大或较小,容易落入梯度饱和区,导致梯度为0,模型很难继续训练.

在最优模型上计算准确率发现只有0.01 

2.使用梯度截断法解决梯度爆炸

引入按模截断的策略之后,模型训练时参数梯度的变化情况。可以看到,随着迭代步骤的进行,梯度始终保持在一个有值的状态,表明按模截断能够很好地解决梯度爆炸的问题. 

由于为复现梯度爆炸现象,改变了学习率,优化器等,因此准确率相对比较低。但由于采用梯度截断策略后,在后续训练过程中,模型参数能够被更新优化,因此准确率有一定的提升。

三总结和心得体会

解释词向量、词嵌入

词向量是用固定维度的 实数向量 来表示一个词语。它通过对语言中词语之间的语义相似度进行建模来生成这些向量。词向量通常是一个低维稠密的向量,相较于传统的稀疏表示(如独热编码),它能更有效地捕捉词语的语义信息。例如,假设有一个词语“dog”,其对应的词向量可能是:[0.12, -0.34, 0.65, -0.22, ...]。词向量的生成方式通常是基于上下文信息,例如通过共现统计(词与词之间的共现频率)或者神经网络模型(如Word2Vec, GloVe等)来训练这些词向量。

词向量的特点:

低维稠密表示:相比传统的稀疏表示(如独热编码),词向量可以有效地表示词语之间的相似性。

向量之间的运算:词向量可以进行加法、减法等数学操作,这种方式使得词向量能够在向量空间中进行运算。例如,“king” - “man” + “woman” ≈ “queen”。

词嵌入是通过 神经网络模型(如 Word2Vec、GloVe、FastText 等)将词语映射到一个 连续的向量空间 中。这些词嵌入不仅可以通过共现频率学习,也能在不同的上下文中不断更新,学习到更多语义信息。换句话说,词嵌入是通过一种方法或算法将词语映射到一个低维的稠密向量空间,这些词嵌入的向量不仅包含了每个词的单一表示,还能捕捉到词与词之间的关系。

常见的词嵌入方法有:

Word2Vec:通过 Skip-gram 或 CBOW 模型训练词向量,能够通过上下文信息捕捉词语之间的关系。

GloVe(Global Vectors for Word Representation):基于词语共现矩阵的全局统计信息,使用矩阵分解技术来训练词向量。

FastText:比 Word2Vec 更进一步,能够处理词内子词信息,尤其适用于处理罕见词。

在RNN的记忆能力的实验中,新东西就是创建基于RNN实现数字预测的模型,在这个模型中先把输入进行嵌入,然后调用srn模型得到最后一个状态的隐向量,最后利用linear函数将其映射为在每个类别上的数值。通过在不同长度的序列上观察模型的准确率,发现序列越长,准确率越低,就相当于隔得时间越长,人的记忆就会越来越模糊。

在梯度爆炸实验中,学习率设置一个比较大的数,使用SGD优化器(SGD是一种非常基础的优化算法,它的更新步骤没有任何的约束或调整机制。在每次更新时,学习率是固定的,且没有任何机制来控制梯度的大小。如果学习率过大,SGD很容易因为参数更新过大而导致梯度爆炸。)编写了一个记录每个epoch上W、U、b梯度的函数,在每个epoch中收集参数的梯度,发现训练了几次,参数的梯度都变成了0,发生了梯度爆炸现象。


http://www.ppmy.cn/embedded/145586.html

相关文章

virtualbox 搭建ubuntu

环境&#xff1a;VirtualBox-6.1.32 1、下载安装virtualbox 略 2、新建ubuntu 3、配置ubuntu 选择虚拟盘 4、安装ubuntu 5、安装ssh sudo apt install openssh-server openssh-client 查看ip 6、安装samba sudo apt install samba 查看ssh启动状态 sudo systemctl stat…

Spring Boot + Spring AI快速体验

Spring AI快速体验 1 什么是Spring AI主要功能 2 快速开始2.1 版本说明2.2 配置文件2.3 pom依赖2.3.1 spring maven仓库2.3.2 核心依赖 2.4 定义ChatClient2.5 启动类2.6 测试 3 参考链接 1 什么是Spring AI Spring AI是Spring的一个子项目&#xff0c;是Spring专门面向于AI的…

安科瑞电能质量治理产品在分布式光伏电站的应用-安科瑞黄安南

1.概述 随着全球对可再生能源需求的增加&#xff0c;分布式光伏电站的建设和发展迅速。然而&#xff0c;分布式光伏电站的运行过程中面临着一系列问题&#xff0c;比如导致企业关口计量点功率因数过低、谐波污染等。这些问题不仅影响光伏电站自身的运行效率&#xff0c;还会对…

WPF Prism ViewInjection

ViewInjection介绍 ViewInjection是Prism框架提供的一种机制&#xff0c;用于将视图动态地注入到指定的容器&#xff08;Region&#xff09;中。这种注入方式允许你在运行时动态地添加、移除或替换视图&#xff0c;从而实现更灵活的用户界面设计。 ViewInjection示例 GitHub…

【MySQL】链接池原理:简单理解网站的数据流动

前言&#xff1a;本节内容是博主快速上手mysql专栏的最后一篇文章。 本节内容不讲解mysql语法了&#xff0c; 而是以网站为例&#xff0c;讲一下前后端的逻辑与联系。 友友们可以当成一个故事听。 ps:本节不需要门槛&#xff0c; 当成一个故事听即可&#xff01; 目录 连接池…

【Postman】 如何配置 host?全局变量?

在 Postman 中配置 host 的主要目的是设置 API 请求将要发送到的服务器地址&#xff0c;Host 可能需要对应于开发、测试或生产环境的不同服务器地址&#xff0c;所以通过 host 变量的方式来统一配置&#xff0c;这样在切换环境的时候就不用一个一个改接口的前置 url 了。 简单来…

每天40分玩转Django:Django模板系统

Django模板系统 一、课程概述 学习项目具体内容预计用时模板语法变量、标签、过滤器、注释90分钟模板继承模板层级、块、包含60分钟静态文件配置、管理、使用90分钟 二、模板基础配置 2.1 模板配置 # settings.py TEMPLATES [{BACKEND: django.template.backends.django.D…

Python大数据可视化:基于Python的王者荣耀战队的数据分析系统设计与实现_flask+hadoop+spider

开发语言&#xff1a;Python框架&#xff1a;flaskPython版本&#xff1a;python3.7.7数据库&#xff1a;mysql 5.7数据库工具&#xff1a;Navicat11开发软件&#xff1a;PyCharm 系统展示 管理员登录 管理员功能界面 比赛信息管理 看板展示 系统管理 摘要 本文使用Python与…