[PyTorch][chapter 41][卷积网络实战-LeNet5]

news/2024/10/30 17:20:43/

前言

    这里结合前面学过的LeNet5 模型,总结一下卷积网络搭建,训练的整个流程

目录:

    1: LeNet-5 

    2:    卷积网络总体流程

    3:  代码


一  LeNet-5

      LeNet-5是一个经典的深度卷积神经网络,由Yann LeCun在1998年提出,旨在解决手写数字识别问题,被认为是卷积神经网络的开创性工作之一。该网络是第一个被广泛应用于数字图像识别的神经网络之一,也是深度学习领域的里程碑之一

参数

输出shape

输入层

[batch,channel,32,32]

  C1(卷积层) 

6@5x5 卷积核 ,stride=1 ,padding=0

[batch,6,28,28]

  S2(池化层) 

kernel_size=2,stride=2,padding=0

[batch,6,14,14]

  C3(卷积层)


 

16@5x5 卷积核,stride=1,padding=0

[batch,16,10,10]

 S4(池化层) 

kernel_size=2,stride=2,padding=0

[batch,16,5,5]

  C5(卷积层)


 

120@5x5卷积核,stride=1padding=0

[batch,120,1,1]

 F6-全连接层 

nn.Linear(in_features=120,  out_features=84)

[batch,120]

 Output-全连接层 

nn.Linear(in_features=120,  out_features=10)

[batch,10]


二 卷积网络的总体流程

     

2.1、nn.Module建立神经网络模型
          model = LeNet5()

          

2.2、建立此网络的可学习的参数,以及更新规则
       optimizer = optim.Adam(model.Parameters(), lr=1e-3) 

        梯度更新的公式

2.3、构建损失函数

        损失函数模型
        criteon = nn.CrossEntropyLoss() 

2.4    前向传播

      logits = model(x)

       根据现有的权重系数,预测输出

2.5   反向传播

      optimizer.zero_grad() #先将梯度归零w_grad
      loss.backward()       #反向传播计算得到每个参数的梯度值w_grad

      通过当前的loss ,计算梯度

2.6   利用optim 更新权重系数

       optimizer.step() #更新权重系数W

       利用优化器更新权重系数
          

        


  三  代码 

# -*- coding: utf-8 -*-
"""
Created on Thu Jun 15 14:32:54 2023@author: chengxf2
"""
import torch
from torch import nn
from torch.nn import functional as F 
from torchvision import datasets
from torchvision import transforms
from torch.utils.data import DataLoader
import torch.optim as optim 
import sslclass  LeNet5(nn.Module):"""for cifar10 dataset"""def __init__(self):super(LeNet5, self).__init__()self.conv_unit = nn.Sequential(#卷积层1 x:[b,3,32,32] => [b,6, 30,30]nn.Conv2d(in_channels=3, out_channels=6, kernel_size=5,stride=1,padding=0),#池化层1nn.MaxPool2d(kernel_size=2,stride=2, padding =0),#卷积层2  nn.Conv2d(in_channels=6, out_channels=16, kernel_size=5,stride=1, padding=0),#池化层2nn.MaxPool2d(kernel_size=2,stride=2, padding =0)#x:[b,16,5,5])self.flatten = nn.Flatten(start_dim =1, end_dim = -1)self.fc_unit = nn.Sequential(nn.Linear(in_features=16*5*5, out_features=120),nn.ReLU(),nn.Linear(in_features=120, out_features=84),nn.ReLU(),nn.Linear(in_features=84, out_features=10))def forward(self, x):'''Parameters----------x : [batch,channel=3, width=32, height=32].Returns-------out : DESCRIPTION.'''#[b,3,32,32] =>[b,16,5,5]out = self.conv_unit(x)#print("\n 卷积层输出 :",out.shape)#[b,16,5,5]=>[b,16*5*5]out = self.flatten(out)#print("\n flatten层输出 :",out.shape)#[b,400]=>[b,10]out = self.fc_unit(out)#print("\n 全连接层输出 :",out.shape)#pred = F.softmax(out,dim=1)return outdef train():x = torch.randn(8,3,32,32)net = LeNet5()out = net(x)print(out.shape)def main():batchSize =32 maxIter = 10dataset_trans = transforms.Compose([transforms.ToTensor(),transforms.Resize((32,32))]) imgDir='./data'print("\n ---beg----")cifar_train = datasets.CIFAR10(root= imgDir,train=True, transform= dataset_trans,download =False) cifar_test =  datasets.CIFAR10(root= imgDir,train=False,transform= dataset_trans,download =False) train_data = DataLoader(cifar_train, batch_size=batchSize,shuffle=True)test_data = DataLoader(cifar_test, batch_size=batchSize,shuffle=True)print("\n --download finsh---")device = torch.device('cuda')# DataLoader迭代产生训练数据提供给模型 model = LeNet5().to(device)criteon = nn.CrossEntropyLoss() #前向传播计算lossoptimizer = optim.Adam(model.parameters(), lr=1e-3, betas=(0.9, 0.999)) #反向传播for epoch in range(maxIter):for batchindex,(x,label) in enumerate(train_data):#x: [b,3,32,32]#label: [b]x,label = x.to(device),label.to(device)logits = model(x)loss = criteon(logits, label)#backpopoptimizer.zero_grad()loss.backward()optimizer.step() #更新梯度if batchindex%500 ==0:print('batchindex {}, loss {}'.format(batchindex, loss.item()))model.eval()total_correct =0.0total_num = 0.0with torch.no_grad():for batchindex,(x,label) in enumerate(test_data):x,label = x.to(device),label.to(device)logits = model(x)pred = logits.argmax(dim=1)total_correct += torch.eq(pred, label).float().sum()total_num += x.size(0)acc = total_correct/total_numprint('\n epoch: {} ,acc: {}  total_num: {}'.format(epoch, acc, total_num))if __name__ == "__main__":main()

因为不是灰度图,训练10轮,acc 只有 epoch: 9 ,acc: 0.6310999989509583  total_num: 10000.0

可以把卷积核调整小一点

参考:

https://mp.csdn.net/mp_blog/creation/editor/131209651

课时79 卷积神经网络训练_哔哩哔哩_bilibili

课时77 卷积神经网络实战-1_哔哩哔哩_bilibili


http://www.ppmy.cn/news/416561.html

相关文章

firefox图片颜色不正常的解决办法

firefox图片颜色不正常的解决办法: about:config 查找gfx.color_management.mode 把值由2改为0 重启firefox即可

firefox夜间模式

在ADD-ON中找一个叫COLOR TOGGLE插件就可以实现这个功能,虽然还不是很完善

火狐FireFox浏览器默认安装C盘解决方案

上来就是正在安装,一点选择的机会都没有 解决方案: 点击更多系统和语言下载 自行选择下载的类型,这个有选择方案

只为 Firefox 编写 CSS 规则

如果您想添加一些 CSS 规则来修复 Firefox 上的问题,那么这个技巧可能很有用。 有两种检测 Firefox 的方法: -moz-document url-prefix() {h1 {color: blue;} }/* 使用 support */ supports (-moz-appearance: none) {h1 {color: blue;} } 上面的示例代码…

Firefox浏览器修改背景颜色为豆沙绿

问题: Firefox自带修改颜色的功能(选项-内容-颜色-背景),但效果并不太理想,一是修改后感觉网站们的排版都怪怪的,二是提供的默认的颜色都并不太适合作为背景色。 解决方案: Firefox的优势就在…

一个umi4的项目适配到FireFox60.7.1esr版本上的从头到尾

项目场景: 一个使用umi4创建的大屏项目,用户的浏览器使用的是火狐60.7.1的稳定版。然后就报错了!!! 为什么不让用户换谷歌嘞,咱也不知道。那咱就搞兼容吧~~ 贴个浏览器的版本图片: 问题历程 …

【问题解决】BootStrap.css与layDate日期选择样式起冲突的解决办法

转载请注明出处:http://blog.csdn.net/qq_26525215 本文源自【大学之旅_谙忆的博客】  问题如图: 给大家看下正常的layDate年份选择图片: 一开始想到的,以为是自己没有将layer.css导入,或者layDate.css没有导入,出现的这个问题,结果发现只要导入layer.css,会自动…

threejs fire 火焰与烟雾效果

在threejs中有一个为我们提供了可以实现火焰和烟雾效果的包&#xff0c;我们可以直接引用这个包&#xff0c;通过设置某些参数实现需要的效果。 第一步引入fire包&#xff0c;可在工程文件夹下的example文件夹中找到 <script type"text/javascript" src"js…