联邦迁移学习

ops/2025/1/16 0:07:58/

Finetune(微调) 和 Fixed Feature Extractor(固定特征提取器) 确实有相似之处,但它们的关键区别在于模型参数的调整范围和任务的相似性。

区别:
Finetune(微调):

所有层都参与训练:在Finetune中,预训练模型的所有层都会参与训练。虽然我们使用预训练权重进行初始化,但训练过程中会根据新任务的数据对模型参数进行更新。
适用于相似任务:Finetune 适合原始任务和新任务有较大相似性的情况。比如,如果预训练模型在 ImageNet(自然图片)上训练过,用它来处理另一个自然图片的分类任务,Finetune 的效果往往很好。

import torch
import torch.nn as nn
import torchvision.models as models
import torch.optim as optim
from torch.utils.data import DataLoader
from torchvision import datasets, transforms# 1. 加载预训练的 ResNet50 模型
model = models.resnet50(pretrained=True)# 2. 修改最后的全连接层,适配新任务(假设新任务有10个类别)
model.fc = nn.Linear(model.fc.in_features, 10)  # in_features 为 ResNet50 的全连接层输入维度# 3. 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)# 4. 加载数据集(例如,CIFAR-10 数据集)
transform = transforms.Compose([transforms.Resize((224, 224)),  # ResNet50 需要 224x224 的输入尺寸transforms.ToTensor(),
])train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)# 5. 训练模型
model.train()  # 设置为训练模式
for epoch in range(10):  # 假设训练10个 epochrunning_loss = 0.0for inputs, labels in train_loader:optimizer.zero_grad()  # 清除梯度outputs = model(inputs)  # 前向传播loss = criterion(outputs, labels)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新模型参数running_loss += loss.item()print(f"Epoch {epoch+1}, Loss: {running_loss/len(train_loader)}")# 6. 模型训练完成后保存
torch.save(model.state_dict(), "finetuned_resnet50.pth")

Fixed Feature Extractor(固定特征提取器):

仅微调最后几层:在这种方法中,预训练模型的大部分层是被冻结的,只有最后的几层(通常是全连接层)参与训练。这种方式把前几层看作一个固定的特征提取器,用来提取图片的高层次特征,而只在最后的几层上根据新任务进行训练。
适用于不同的任务:这种方法适合原始任务和新任务差异较大的情况,因为你可能只是需要使用预训练模型提取的通用特征,而不需要修改整个模型。

import torch
import torch.nn as nn
import torchvision.models as models
import torch.optim as optim# 1. 加载预训练的 ResNet50 模型
model = models.resnet50(pretrained=True)# 2. 冻结前几层参数,使得它们不参与训练
for param in model.parameters():param.requires_grad = False# 3. 替换最后的全连接层,适应新的任务 (假设是10类分类任务)
model.fc = nn.Sequential(nn.Linear(model.fc.in_features, 256),  # 添加一层全连接层nn.ReLU(),nn.Dropout(0.4),nn.Linear(256, 10),  # 最后输出10个类别
)# 4. 只训练新的全连接层
optimizer = optim.Adam(model.fc.parameters(), lr=0.001)# 5. 训练模型
criterion = nn.CrossEntropyLoss()# 假设有一个训练数据集 train_loader
for epoch in range(10):running_loss = 0.0for inputs, labels in train_loader:optimizer.zero_grad()  # 清除梯度outputs = model(inputs)  # 前向传播loss = criterion(outputs, labels)  # 计算损失loss.backward()  # 反向传播optimizer.step()  # 更新模型参数running_loss += loss.item()print(f"Epoch {epoch+1}, Loss: {running_loss/len(train_loader)}")

http://www.ppmy.cn/ops/109658.html

相关文章

论文120:Giga-SSL: Self-supervised learning for gigapixel images (2023, CVPR, 开源)

文章目录 1 要点2 方法2.1 算法设计2.2 设计选择 1 要点 题目:用于千兆像素图像的自监督学习 (Giga-SSL: Self-Supervised Learning for Gigapixel Images) 代码:https://github.com/trislaz/gigassl 研究目的: 现有的WSI分类方法依赖于有…

JVM锁的优化与逃逸分析

锁消除 是指JVM即时编译器在运行时,对一些代码上要求同步,但是被检测到不可能存在共享数据竞争的锁进行消除。锁消除的主要判定依据来源于逃逸分析的数据支持。JIT(Just-In-Time,即时编译):是一种在程序运…

详聊LLaMa技术细节:LLaMA大模型是如何炼成的?

本文介绍来自 Meta AI 的 LLaMa 模型,类似于 OPT,也是一种完全开源的大语言模型。LLaMa 的参数量级从 7B 到 65B 大小不等,是在数万亿个 token 上面训练得到。值得一提的是,LLaMa 虽然只使用公共的数据集,依然取得了强…

天气预报爬虫

一、获取天气接口 主要通过nowapi注册用户之后,进入相应的接口,进行抓取报文。 二、wireshark抓取报文,解析cjson格式 Http的交互过程 1.建立TCP连接 2.发送HTTP请求报文 3.回复HTTP响应报文 4.断开TCP连接 CJSON的使用办法 1. JSON…

计算机网络 第三章: 点对点协议

文章目录 点对点协议PPP概述PPP的帧格式PPP桢的透明传输PPP帧的差错检测PPP的工作状态 点对点协议PPP概述 点对点协议(Point-to-Point Protocol,PPP)是目前使用最广泛的点对点数据链路层协议。 点对点协议PPP是因特网工程任务组&#xff08…

Python如何爬取post请求头的数据

🏆本文收录于《CSDN问答解惑-专业版》专栏,主要记录项目实战过程中的Bug之前因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&收…

开发中的网络问题逻辑推理分析

基于TCP/IP的逻辑推理,大部分软件从业人员都不是很懂,导致很多问题都被误认为诡异问题。有些人是惧怕TCP/IP网络书籍中的复杂知识内容,有的是被wireshark[1]显示的深红色内容所干扰。 经典案例1: 例如有一个DBA遇到了性能问题&a…

vs2019成功连接数据库mysql

②在vs2019中创建新项目,注意x64 ③ 右击项目打开属性 ④添加include路径 ⑤添加lib路径 点击确定后点击应用 ⑥ 点击全部确定 ⑦ ⑧启动mysql 进入数据库: 在数据库中创建student的表 ⑨在va2019中输入下面代码测试 注意:密码换成自己…