《迁移学习》—— 将 ResNet18 模型迁移到食物分类项目中

news/2024/9/29 0:15:20/

文章目录

  • 一、迁移学习的简单介绍
  • 二、数据集介绍
  • 三、代码实现
    • 1. 步骤
    • 2.所用到方法介绍的文章链接
    • 3. 完整代码

一、迁移学习的简单介绍

1.迁移学习是什么?

  • 迁移学习是指利用已经训练好的模型,在新的任务上进行微调。
  • 迁移学习可以加快模型训练速度,提高模型性能,并且在数据稀缺的情况下也能很好地工作。

2.迁移学习的步骤

  • (1) 选择预训练的模型和适当的层:通常,我们会选择在大规模图像数据集(如ImageNet)上预训练的模型,如VGG、ResNet等。然后,根据新数据集的特点,选择需要微调的模型层。对于低级特征的任务(如边缘检测),最好使用浅层模型的层,而对于高级特征的任务(如分类),则应选择更深层次的模型。
  • (2) 冻结预训练模型的参数:保持预训练模型的权重不变,只训练新增加的层或者微调一些层,避免因为在数据集中过拟合导致预训练模型过度拟合。
  • (3) 在新数据集上训练新增加的层:在冻结预训练模型的参数情况下,训练新增加的层。这样,可以使新模型适应新的任务,从而获得更高的性能。
  • (4) 微调预训练模型的层:在新层上进行训练后,可以解冻一些已经训练过的层,并且将它们作为微调的目标。这样做可以提高模型在新数据集上的性能。
  • (5) 评估和测试:在训练完成之后,使用测试集对模型进行评估。如果模型的性能仍然不够好,可以尝试调整超参数或者更改微调层。

二、数据集介绍

  • 下图是数据集的结构
    • 在 food_dataset2 文件夹下含有训练数据和测试数据
    • 训练集和测试集数据中都含有 20 种食物图片,数量在200~400不等
    • trainda.txt 和 testda.txt 文本中存放了每张图片的路径及标签,用 0~19 这20个数字分别对20种食物进行标签
    • 在代码中通过trainda.txt 和 testda.txt 文本中的内容来获取每张图片及对应的标签
      在这里插入图片描述
    • 下面是trainda.txt文本中的部分内容(testda.txt 中的内容格式相同)
      在这里插入图片描述
  • 送福利!!! 私信送此数据集 !!!

三、代码实现

1. 步骤

  • 1.调用resnet18模型,并保存需要训练的模型参数
  • 2.定义一个图像预处理和数据增强字典
  • 3.定义获取每张食物图片和标签的类方法
  • 4.获取训练集和测试集数据
  • 5.对数据集进行打包
  • 6.调用交叉熵损失函数并创建优化器
  • 7.定义训练模型的函数
  • 8.定义测试模型的函数
  • 9.训练模型,并每训练一轮测试一次

2.所用到方法介绍的文章链接

  • ResNet 残差网络神经网络
    • https://blog.csdn.net/weixin_73504499/article/details/142575775?spm=1001.2014.3001.5501
  • 数据增强
    • https://blog.csdn.net/weixin_73504499/article/details/142499263?spm=1001.2014.3001.5501
  • 调整学习率
    • https://blog.csdn.net/weixin_73504499/article/details/142526863?spm=1001.2014.3001.5501

3. 完整代码

import torchimport torchvision.models as models  # 导入存有各种深度学习模型的模块from torch import nn  # 导入神经网络模块from torch.utils.data import Dataset, DataLoader  # Dataset: 抽象类,一种用于获取数据的方法  DataLoader:数据包管理工具,打包数据from torchvision import transforms  # transforms模块提供了一系列用于图像预处理和数据增强的函数和类from PIL import Image  # 用于处理图片import numpy as np""" 调用resnet18模型 """resnet_model = models.resnet18(weights=models.ResNet18_Weights.DEFAULT)for param in resnet_model.parameters():param.requires_grad = False# 模型所有参数(即权重和偏差)的 requires_grad 属性设置成 False,从而冻结所有模型参数# 使得在反向传播过程中不会计算他们的梯度,从此减少模型的计算量,提高推理速度in_features = resnet_model.fc.in_features  # 获取resnet18模型全连接层原输入的特征个数resnet_model.fc = nn.Linear(in_features, 20)  # 创建一个全连接层输入特征个数为: in_features  输出特征个数为:数据集中事务的种类数量params_to_update = []  # 保存需要训练的参数,仅仅包含全连接层的参数for param in resnet_model.parameters():if param.requires_grad == True:params_to_update.append(param)""" 图像预处理和数据增强 """data_transforms = {'train':transforms.Compose([transforms.Resize([300, 300]),transforms.RandomRotation(45),  # 随机旋转,-45到45度之间随机transforms.CenterCrop(224),  # 中心裁剪transforms.RandomHorizontalFlip(p=0.5),  # 随机水平反转 选择一个概率transforms.RandomVerticalFlip(p=0.5),  # 随机垂直翻转# transforms.ColorJitter(brightness=0.2, contrast=0.1, saturation=0.1, hue=0.1),  # 亮度、对比度transforms.RandomGrayscale(p=0.1),  # 概率转换成灰度率,3通道就是R G Btransforms.ToTensor(),  # 转化为神经网络可以识别的 Tensor 类型transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])  # 对图片数据进行归一化,[均值],[标准差]]),'valid':transforms.Compose([transforms.Resize([224, 224]),transforms.ToTensor(),transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])])}""" 定义获取每张食物图片和标签的类方法 """class food_dataset(Dataset):def __init__(self, file_path, transform=None):self.file_path = file_pathself.imgs = []self.labels = []self.transform = transformwith open(self.file_path) as f:samples = [x.strip().split(' ') for x in f.readlines()]for img_path, label in samples:self.imgs.append(img_path)self.labels.append(label)def __len__(self):return len(self.imgs)def __getitem__(self, idx):image = Image.open(self.imgs[idx])if self.transform:image = self.transform(image)label = self.labels[idx]label = torch.from_numpy(np.array(label, dtype=np.int64))return image, label""" 获取训练集和测试集数据 """training_data = food_dataset(file_path='trainda.txt', transform=data_transforms['train'])test_data = food_dataset(file_path='testda.txt', transform=data_transforms['valid'])""" 对数据集进行打包 """train_dataloader = DataLoader(training_data, batch_size=64, shuffle=True)  # 64张图片为一个包,shuffle --> 打乱顺序test_dataloader = DataLoader(test_data, batch_size=64, shuffle=True)""" 判断当前设备是否支持GPU,其中mps是苹果m系列芯片的GPU """device = "cuda" if torch.cuda.is_available() else "mps" if torch.backends.mps.is_available() else "cpu"print(f"Using {device} device")# 把模型传入到 gpu 或 cpumodel = resnet_model.to(device)""" 调用交叉熵损失函数 """loss_fn = nn.CrossEntropyLoss()"""" 创建优化器并调整优化器中的学习率--> lr """optimizer = torch.optim.Adam(params_to_update, lr=0.001)scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=5, gamma=0.5)""" 定义训练模型的函数 """def train(dataloader, model, loss_fn, optimizer):model.train()  # 告诉模型,开始训练# pytorch提供2种方式来切换训练和测试的模式,分别是:model.train()和 model.eval()。# 一般用法是:在训练开始之前写上model.trian(),在测试时写上model.for X, y in dataloader:X, y = X.to(device), y.to(device)  # 把训练数据集和标签传入cpu或gpupred = model.forward(X)  # .forward可以被省略,父类中已经对次功能进行了设置。自动初始化w权值loss = loss_fn(pred, y)  # 通过交叉熵损失函数计算损失值 lossoptimizer.zero_grad()  # 梯度值清零loss.backward()  # 反向传播计算得到每个参数的梯度值woptimizer.step()  # 根据梯度更新网络w参数""" 定义测试模型的函数 """best_acc = 0  # 用于更新准确率def test(dataloader, model, loss_fn):global best_accsize = len(dataloader.dataset)num_batches = len(dataloader)model.eval()  # 测试,w就不能再更新test_loss, correct = 0, 0with torch.no_grad():for X, y in dataloader:X, y = X.to(device), y.to(device)pred = model.forward(X)test_loss += loss_fn(pred, y).item()  # test_loss是会自动累加每一个批次的损失值correct += (pred.argmax(1) == y).type(torch.float).sum().item()  # correct是会自动累加每一个批次的正确率test_loss /= num_batches  # 平均的损失值correct /= size  # 平均的正确率print(f"Test result: \n Accuracy: {(100 * correct)}%, Avg loss: {test_loss}")# 找到最好的准确率if correct > best_acc:best_acc = correct""" 定义模型训练的轮数,并每训练一轮测试一次 """epochs = 30for e in range(epochs):print(f"Epoch {e + 1}\n---------------------------")train(train_dataloader, model, loss_fn, optimizer)scheduler.step()  # 在每个epoch的训练中,使用scheduler.step()语句进行学习率更新test(test_dataloader, model, loss_fn)print('最优的训练结果为:', best_acc)
  • 结果如下
    • 此结果只是训练了30轮后的结果,可以训练更多轮,最后的准确率还会有所提高
      在这里插入图片描述

http://www.ppmy.cn/news/1531674.html

相关文章

QtCreator的界面

编辑 advanced Auto-indent Selection:自动缩进选择。将所选内容按照预设的缩进规则进行缩进。Rewrap Paragraph:重新换行段落。将一段文字根据指定宽度重新排版。Visualize Whitespace:可视化空白字符。显示通常不可见的空格、制表符等空白…

element ui 精确控制日期控件 date-picker

https://github.com/element-plus/element-plus/discussions/17378 -- 某组件 xxx.vue ... <el-date-pickerv-model"timeRange"type"daterange"range-separator"-"start-placeholder"开始日期"end-placeholder"结束日期"…

QTday1代码的形式实现登录框

代码注释 main.cpp #include "widget.h"#include <QApplication>int main(int argc, char *argv[]) {QApplication a(argc, argv);//调用应用程序类的有参构造的实例化对象Widget w;//调用自定义的有参构造实例化的对象w.show();//调用该类的父类里的成员函数…

spring6启用Log4j2日志

pom文件 <!--log4j2的依赖--> <dependency><groupId>org.apache.logging.log4j</groupId><artifactId>log4j-core</artifactId><version>2.23.1</version> </dependency> <dependency><groupId>org.apache…

C++入门编程题(力扣):字符串中最多数目的子序列

1.题目描述&#xff1a; 给你一个下标从0开始的字符串 text 和另一个下标从0开始且长度为 2 的字符串 pattern两者都只包含小写英文字母。 你可以在 text 中任意位置插入 一个 字符&#xff0c;这个插入的字符必须是 pattern[0]或者 pattern[1]。 注意&#xff0c;这个字符可以…

Spring Boot 基础入门指南

1. 什么是 Spring Boot&#xff1f; Spring Boot 是一个用于简化 Spring 应用程序开发的框架&#xff0c;旨在让开发者快速构建独立的、生产级的 Spring 应用。它提供了自动配置、嵌入式服务器和一系列开箱即用的功能&#xff0c;降低了应用程序的开发和部署难度。 2. Spring…

青动CRM V3.2.1

全面解决企业销售团队的全流程客户服务难题旨在助力企业销售全流程精细化、数字化管理&#xff0c;全面解决企业销售团队的全流程客户服务难题&#xff0c;帮助企业有效盘活客户资源、量化销售行为&#xff0c;合理配置资源、建立科学销售体系&#xff0c;提升销售业绩。标准授…

Spring MVC常用注解(绝对经典)

文章目录 一、元注解1.1 Target&#xff1a;1.2 Retention&#xff1a; 二、常见注解2.1 Controller&#xff1a;2.2 SpringBootApplication&#xff1a;2.3 RequestMapping&#xff1a;2.4 RequestParam&#xff1a;2.5 PathVariable&#xff1a;2.6 RequestPart&#xff1a;2…