【第十五周】PyTorch深度学习实践2

news/2024/10/9 22:44:35/

目录

  • 摘要
  • Abstract
  • 1.多分类问题
    • 1.1.Softmax
    • 1.2.维度问题
    • 1.3.NLLLoss v.s. CrossEntropy
    • 1.4.代码实践
      • 1.4.1.导入相应的包
      • 1.4.2.准备数据集
      • 1.4.3.模型设计
      • 1.4.4.构造损失和优化器
      • 1.4.5.模型训练
  • 2.卷积神经网络基础篇
    • 2.1.代码实践
      • 2.1.1.导入相应的包:
      • 2.1.2.准备数据集:
      • 2.1.3.模型设计
      • 2.1.4.构造损失和优化器
      • 2.1.5.模型训练
  • 总结

摘要

本周继续对 PyTorch 进行进一步学习,重点理解了张量的维度变化,在上一周的基础上更加深入地学习了 PyTorch 中各个模块的作用,加深了对神经网络构造流程的印象。同时对比了 NLLLoss 和 CrossEntropy 的作用,理解了为什么神经网络使用 CrossEntropy 作为损失函数时在网络的最后一层不做激活。对于卷积神经网络,深刻理解了经过卷积、池化、全连接之后各个张量的维度变化。

Abstract

This week, I continued to further study PyTorch, focusing on understanding the changes in tensor dimensions. Building upon last week’s foundation, I delved deeper into the roles of various modules in PyTorch, reinforcing my understanding of the neural network construction process. Additionally, I compared the functions of NLLLoss and CrossEntropy, and understood why neural networks use CrossEntropy as the loss function without applying an activation function in the final layer. For convolutional neural networks, I gained a deep understanding of the changes in tensor dimensions after convolution, pooling, and fully connected layers.

1.多分类问题

在这里插入图片描述

MNIST 数据集是一个非常著名且广泛使用的数据集,主要用于训练各种机器学习模型,尤其是在手写数字识别任务上。MNIST 数据集包含 70,000 张 28x28 像素的灰度图像,这些图像是手写的数字 0 到 9。数据集被划分为两部分:一个包含 60,000张图像的训练集,用于训练模型;另一个包含 10,000 张图像的测试集,用于评估模型的性能。

在这里插入图片描述

以手写数字识别为例,多分类问题中输出的应该是一个概率分布

在这里插入图片描述

输出每一个类别都需要满足概率值大于等于0,并且所有输出概率之和应为1。为了满足这个要求,我们最后一层应该要经过一个 softmax 函数处理。

1.1.Softmax

在这里插入图片描述

在这里插入图片描述

注意:
(1)PyTorch 中提供的交叉熵损失函数已经包括了 Softmax 函数,所以我们在神经网络最后一层不会再加入 Softmax 函数。
(2)torch.LongTensor 在 PyTorch 1.6 版本之后被弃用,推荐使用 torch.tensor 并指定 dtype=torch.long 来创建相同类型的张量。

代码测试

import torch
criterion = torch.nn.CrossEntropyLoss()
Y = torch.tensor([2, 0, 1])
Y_pred1 = torch.tensor([[0.1, 0.2, 0.9],[1.1, 0.1, 0.2],[0.2, 2.1, 0.1]])
Y_pred2 = torch.tensor([[0.8, 0.2, 0.3],[0.2, 0.3, 0.5],[0.2, 0.2, 0.5]])l1 = criterion(Y_pred1, Y) # 括号内参数不可颠倒,否则维度对应不上。
l2 = criterion(Y_pred2, Y)
print(l1)
print(l2)

结果如下:

在这里插入图片描述

单从预测出来的数据上看也能发现 Y_pred1 更加接近 label 。

1.2.维度问题

Y = torch.tensor([2, 0, 1])

对于给定的目标张量的维度代表着 batch_size 的大小,也就是一个批次包含的样本数量。如上说明一个 batch 接受三个样本。因此输入张量的第一个维度要于 batch_size 相等。

Y_pred1 = torch.tensor([[0.1, 0.2, 0.9],[1.1, 0.1, 0.2],[0.2, 2.1, 0.1]])

对于输入张量,第一个维度代表着 batch_size,第二个维度就代表着分类的类别数量。

我们可以拓展到多标签分类任务。在多标签分类任务中,每个样本可以属于多个类别。

假设目标张量如下:

Y = torch.tensor([[1, 0, 2, 2, 0],[1, 1, 0, 1, 2],[1, 1, 0, 0, 2]])

第一个维度代表 batch_size,说明一个批次有三个样本。第二个维度代表这标签长度,即一个样本有多少个标签。

假设输入张量如下:

X = tensor([[[ 1.2481,  0.3071,  0.5614,  0.5019,  0.3484],[-0.0334, -0.7007, -0.8127, -0.5478,  0.7969],[-0.6703,  1.0289, -0.3442, -0.1401, -1.1288]],[[ 0.1026,  1.8155, -1.1236, -0.3992,  0.0606],[-2.4911, -0.4922,  1.3564,  0.8053, -0.6478],[-1.7029, -0.2763, -0.2075, -0.1883, -1.3610]],[[ 0.8464,  0.0158, -0.4769,  1.3246,  1.9271],[ 0.3562,  0.3566,  0.8755, -2.8509, -0.4352],[-0.4055,  0.5393, -1.1080, -0.7616,  0.4028]]])

第一个维度代表 batch_size,第二个维度代表分类类别,第三个维度代表标签长度。

请添加图片描述
红框内为第一个样本的数据,对输入张量进行 softmax 处理时,我们会以绿框(一列)为一个整体来处理,也就是说通过 softmax 处理产生相对应的概率值后会使得输入张量的每一列相加都为1(而不是每一行)。注意体会这个例子中各个维度的关系。

具体可以参考这个:详解pytorch中nn.CrossEntropyloss函数计算过程

1.3.NLLLoss v.s. CrossEntropy

PyTorch 中还提供了另一个用于分类任务的损失函数 NLLLoss,那么这个损失函数跟 CrossEntropy 又有什么不同呢?

在这里插入图片描述
综上可知,CrossEntropy 等价于 log_softmax + NLLLoss。

参考来源:NLLLoss的具体计算

1.4.代码实践

1.4.1.导入相应的包

import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim

1.4.2.准备数据集

# prepare dataset
batch_size = 64
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])  # 归一化,均值和方差train_dataset = datasets.MNIST(root='../dataset/mnist/', train=True, download=True, transform=transform)train_loader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size)test_dataset = datasets.MNIST(root='../dataset/mnist/', train=False, download=True, transform=transform)test_loader = DataLoader(test_dataset, shuffle=False, batch_size=batch_size)

说明:

  1. transforms.Compose() 是 PyTorch提供的一个简单实用的工具。它允许将多个图像变换操作组成一个序列,从而简化图像预处理流水线。transforms.Compose()
    接受一个变换列表,并返回一个新的、组合后的变换。 这特别适合在处理图像时,需要链式应用多个变换操作的场景。
  2. ToTensor() 将 shape 为 (H, W, C) 的 nump.ndarray 或 img 转为 shape 为 (C, H, W) 的 tensor ,其将每一个数值归一化到 [0,1]。
    transforms.Normalize 后面的0.1307和0.3081是对 MINIST 数据集求解出来的均值和方差。

1.4.3.模型设计

在这里插入图片描述

网络结构如上所示,由于线性层的计算需要接受一个向量,所以我们需要把一张图片转换成一个向量进行计算。而对于一个 batch 的多张图片而言,我们可以把这批图片变换成一个二维矩阵,其中二维矩阵的行数代表图片的数量。然后再把这个二维矩阵送入线性层,再利用矩阵乘法 Y = X Y + b Y=XY + b Y=XY+b 便可以一次求得多张图片的线性变换。我们可以使用 x.view(-1, 784) 将维度为 N×1×28×28 的图像转换成 N×784 的二维矩阵。其中,-1表示自动计算行数,784表示一张图片的像素数量。

代码如下:

# design model using classclass Net(torch.nn.Module):def __init__(self):super(Net, self).__init__()self.l1 = torch.nn.Linear(784, 512)self.l2 = torch.nn.Linear(512, 256)self.l3 = torch.nn.Linear(256, 128)self.l4 = torch.nn.Linear(128, 64)self.l5 = torch.nn.Linear(64, 10)def forward(self, x):x = x.view(-1, 784)  # -1其实就是自动获取mini_batchx = F.relu(self.l1(x))x = F.relu(self.l2(x))x = F.relu(self.l3(x))x = F.relu(self.l4(x))return self.l5(x)  # 最后一层不做激活,不进行非线性变换model = Net()

1.4.4.构造损失和优化器

criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)

1.4.5.模型训练

为了便于灵活地调整,我们将模型的训练封装成一个函数。

def train(epoch):running_loss = 0.0for batch_idx, data in enumerate(train_loader, 0):# 获得一个批次的数据和标签inputs, target = data# 优化器在优化前要清0optimizer.zero_grad()# 获得模型预测结果(64, 10)outputs = model(inputs)# 交叉熵代价函数outputs(64,10),target(64)loss = criterion(outputs, target)loss.backward()optimizer.step()# loss 也是一个张量,如果不使用 loss.item() 直接用 loss那么runing_loss也会是一个张量并且保留计算图信息running_loss += loss.item()if batch_idx % 300 == 299:print('[%d, %5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))running_loss = 0.0

说明:

  1. enumerate(train_loader, 0) 会从 train_loader 里返回索引和数据,后面那个 0 代表索引的起始值。
  2. torch.nn.Module 类有一个特殊的方法 _call_, __call__方法内部会调用 forward 方法。
  3. model 是类 Net 的实例化,而 Net 又继承自 torch.nn.Module ,所以 model 是一个可调入对象,可以实现类似函数一样的操作。
  4. 当你在 forward() 方法中执行各种操作时,PyTorch 会自动记录这些操作及其依赖关系,构建一个计算图。一旦计算图构建完成,通过调用 loss.backward(),PyTorch 会沿着计算图从输出节点反向传播,计算每个参数的梯度。
def test():correct = 0total = 0with torch.no_grad():for data in test_loader:images, labels = dataoutputs = model(images)_, predicted = torch.max(outputs.data, dim=1)  # dim = 1 列是第0个维度,行是第1个维度total += labels.size(0)correct += (predicted == labels).sum().item()  # 张量之间的比较运算print('accuracy on test set: %d %% ' % (100 * correct / total))

说明:

  1. 测试集中不需要求梯度,所以我们可以指定 torch.no_grad()。

  2. torch.max(outputs.data, dim=1) 返回张量第一个维度的最大值以及索引,dim=1 意味着沿着列数的方向检索,而不是沿着某一列。

  3. “_”表示占位符,意思就是我们不需要这部分的信息。

  4. (predicted == labels) 会返回 True 或 False,而(predicted == labels).sum() 会计算布尔张量中 True 的数量,即预测正确的样本数量。

  5. test 是 pytest 测试框架的测试函数标识符前缀,所以 test() 函数有可能会报错,解决办法是将 test() 改名或者在 PyCharm 里将测试框架从 pytest 改为 unittest,具体办法看这个pycharm切换pytest与unittest运行环境。

结果如下:
在这里插入图片描述

2.卷积神经网络基础篇

在这里插入图片描述

在一个卷积神经网络中,前面的部分完成的是特征提取任务,后面部分完成的是分类任务。

在这里插入图片描述

我们观察以上张量的维度,可以发现两个特点:

  1. 输入张量的 channel 大小和卷积核的 channel 大小相等。
  2. 卷积核的数量和输出张量的 channel 大小相等。

在这里插入图片描述
因此,对于确定维度的输入张量和输出张量,卷积核的维度实际上是输出张量的通道数×输入张量的通道数×W×H

在这里插入图片描述

2.1.代码实践

2.1.1.导入相应的包:

import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim

2.1.2.准备数据集:

# prepare dataset
batch_size = 64
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])  # 归一化,均值和方差train_dataset = datasets.MNIST(root='../dataset/mnist/', train=True, download=True, transform=transform)train_loader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size)test_dataset = datasets.MNIST(root='../dataset/mnist/', train=False, download=True, transform=transform)test_loader = DataLoader(test_dataset, shuffle=False, batch_size=batch_size)

2.1.3.模型设计

在这里插入图片描述
卷积神经网络中最重要的是搞清楚张量中各种维度的变化。

class Net(torch.nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = torch.nn.Conv2d(1, 10, kernel_size=5)self.conv2 = torch.nn.Conv2d(10, 20, kernel_size=5)self.pooling = torch.nn.MaxPool2d(2)self.fc = torch.nn.Linear(320, 10)def forward(self, x):# flatten data from (n,1,28,28) to (n, 784)batch_size = x.size(0)x = F.relu(self.pooling(self.conv1(x)))x = F.relu(self.pooling(self.conv2(x)))x = x.view(batch_size, -1)  # -1 此处自动算出的是320x = self.fc(x)return xmodel = Net()
device = torch.device("cuda" if torch.cuda.is_available() else "cpu") # 定义设备
model.to(device) # 将在 CPU 上构建的模型迁移到 GPU 上

2.1.4.构造损失和优化器

# construct loss and optimizer
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)

2.1.5.模型训练

def train(epoch):running_loss = 0.0for batch_idx, data in enumerate(train_loader, 0):inputs, target = datainputs, target = inputs.to(device), target.to(device)optimizer.zero_grad()outputs = model(inputs)loss = criterion(outputs, target)loss.backward()optimizer.step()running_loss += loss.item()if batch_idx % 300 == 299:print('[%d, %5d] loss: %.3f' % (epoch + 1, batch_idx + 1, running_loss / 300))running_loss = 0.0def test():correct = 0total = 0with torch.no_grad():for data in test_loader:images, labels = dataimages, labels = images.to(device), labels.to(device)outputs = model(images)_, predicted = torch.max(outputs.data, dim=1)total += labels.size(0)correct += (predicted == labels).sum().item()print('accuracy on test set: %d %% ' % (100 * correct / total))return correct / totalif __name__ == '__main__':epoch_list = []acc_list = []for epoch in range(10):train(epoch)acc = test()epoch_list.append(epoch)acc_list.append(acc)

结果如下:
在这里插入图片描述

总结

卷积神经网络(Convolutional Neural Network, CNN)是一种深度学习模型,特别擅长处理具有网格状拓扑结构的数据,如图像。这类网络的设计灵感来源于生物视觉皮层的组织方式,尤其是哺乳动物的初级视觉皮层中神经元的感受野特性。CNNs 在计算机视觉任务中表现出色,包括但不限于图像分类、目标检测、语义分割等。学习卷积神经网络最重要的一点在于搞清楚从输入到输出环节的张量维度变化,弄明白了这一点才算真正理解了卷积神经网络的原理。


http://www.ppmy.cn/news/1536842.html

相关文章

MySQL 表的操作

温馨提示:非特殊情况不要修改和删除表 创建表 第一种方式 第二种方式 第三种方式 简单查看 查看表 查询当前数据库:select database(); 查询当前数据库中具有的表:show tables; 查看表的简略信息:desc 表名1; 查看表的…

Qwen变体新成员加一,英伟达训练 NVLM-D-72B 视觉大模型

今天(2024 年 9 月 17 日),我们推出了前沿级多模态大语言模型(LLM)系列 NVLM 1.0,它在视觉语言任务上取得了最先进的结果,可与领先的专有模型(如 GPT-4o)和开放存取模型&…

42 C 语言 typedef:为基本数据类型、数组、指针、结构体、共用体起别名

目录 1 typedef 介绍 2 为某个基本类型起别名 2.1 为 int 类型起别名 Integer 2.2 为 unsigned char 类型起别名 Byte 2.3 为基本类型一次起多个别名 3 为结构体、共用体起别名 3.1 为结构体起别名 3.1.1 分开定义结构体和别名 3.1.2 与结构体定义一起使用 typedef 3…

认证技术原理与应用

目录 原理 依据 类型 方法 应用 原理 认证技术主要是确认一个实体(如人、设备)是否为其所声称的身份。这通常通过以下步骤实现: 身份识别:确定被认证对象的身份标识,如用户名、ID号等。 身份验证:验…

算法知识点————【DFS】【BFS】【树】【图】

** 深度优先搜索 ** DFS 用于遍历树和图的算法,过程中深入到不能深入为止,每个结点遍历一次。 ** 广度优先搜索 ** BFS 用于 从根结点开始遍历,遍历根结点下面的所有孩子结点,然后从孩子结点在进行宽度搜索,直到所有的…

Redis: 集群环境搭建,集群状态检查,分析主从日志,查看集群信息

集群环境搭建 在 Redis 5版本以前是用 Ruby 来搭建集群,在后面的版本中仍保留了相关功能可以再源码src目录中,看到 redis-trib.rb 这个东西,只是现在用这种方式搭建的少了我们看新的版本是怎样搭建集群的,新版构建集群的方式简单…

前端面试:项目细节重难点问题分享(17)

更多详情:爱米的前端小笔记(csdn~xitujuejin~zhiHu~Baidu~小红shu)同步更新,等你来看!都是利用下班时间整理的,整理不易,大家多多👍💛➕🤔哦!你们…

zabbix -rockylinux安装

文章目录 一、环境配置1.1、修改主机名1.2、修改静态ip地址1.3、系统更新1.4、安装epel仓库 二、安装zabbix2.1、添加zabbix仓库2.2、配置数据库2.3、配置zabbix服务器2.4、启动zabbix服务 一、环境配置 1.1、修改主机名 [rootecs-204824 /]# vi /etc/hostname [rootecs-2048…