Pytorch个人学习记录总结 08

news/2024/11/29 8:58:40/

目录

神经网络-搭建小实战和Sequential的使用

版本1——未用Sequential 

版本2——用Sequential


神经网络-搭建小实战和Sequential的使用

  1. torch.nn.Sequential的官方文档地址,模块将按照它们在构造函数中传递的顺序添加。
  2. 代码实现的是下图: 

版本1——未用Sequential 

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linearclass Model(nn.Module):def __init__(self):super(Model, self).__init__()# 3,32,32 ---> 32,32,32self.conv1 = Conv2d(in_channels=3, out_channels=32, kernel_size=5, stride=1, padding=2)# 32,32,32 ---> 32,16,16self.maxpool1 = MaxPool2d(kernel_size=2, stride=2)# 32,16,16 ---> 32,16,16self.conv2 = Conv2d(in_channels=32, out_channels=32, kernel_size=5, stride=1, padding=2)# 32,16,16 ---> 32,8,8self.maxpool2 = MaxPool2d(kernel_size=2, stride=2)# 32,8,8 ---> 64,8,8self.conv3 = Conv2d(in_channels=32, out_channels=64, kernel_size=5, stride=1, padding=2)# 64,8,8 ---> 64,4,4self.maxpool3 = MaxPool2d(kernel_size=2, stride=2)# 64,4,4 ---> 1024self.flatten = Flatten()  # 因为start_dim默认为1,所以可不再另外设置# 1024 ---> 64self.linear1 = Linear(1024, 64)# 64 ---> 10self.linear2 = Linear(64, 10)def forward(self, x):x = self.conv1(x)x = self.maxpool1(x)x = self.conv2(x)x = self.maxpool2(x)x = self.conv3(x)x = self.maxpool3(x)x = self.flatten(x)x = self.linear1(x)x = self.linear2(x)return xmodel = Model()
print(model)input = torch.ones((64, 3, 32, 32))
out = model(input)
print(out.shape)	# torch.Size([64, 10])

版本2——用Sequential

代码更简洁,而且会给每层自动从0开始编序。

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequentialclass Model(nn.Module):def __init__(self):super(Model, self).__init__()self.model = Sequential(Conv2d(in_channels=3, out_channels=32, kernel_size=5, stride=1, padding=2),MaxPool2d(kernel_size=2, stride=2),Conv2d(in_channels=32, out_channels=32, kernel_size=5, stride=1, padding=2),MaxPool2d(kernel_size=2, stride=2),Conv2d(in_channels=32, out_channels=64, kernel_size=5, stride=1, padding=2),MaxPool2d(kernel_size=2, stride=2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):return self.model(x)model = Model()
print(model)input = torch.ones((64, 3, 32, 32))
out = model(input)
print(out.shape)	# torch.Size([64, 10])

 在代码最末尾加上writer.add_gragh(model, input)就可看到模型计算图,可放大查看。

writer = SummaryWriter('./logs/Seq')
writer.add_graph(model, input)
writer.close()

 

 

 


http://www.ppmy.cn/news/977976.html

相关文章

Linux文件管理

WINDOWS/LINUX目录对比 Windows: 以多根的方式组织文件 C:\ D:\ E: Linux: 以单根的方式组织文件 / (根目录) Linux目录简介 /目录结构: FSH (Filesystem Hierarchy Standard) [rootlocalhost ~]# ls / bin dev lib media net root srv usr boot etc lib64 misc …

上海科技大学智能生活组齐聚合合信息,“沉浸式”体验人工智能产品

近期,上海科技大学组织本科生产业实践-校企联合人才培养活动,30余名学生组成的“智能生活组”实地参访人工智能及大数据科技企业上海合合信息科技股份有限公司(简称“合合信息”)。本次活动旨在通过项目体验、主题交流&#xff0c…

前端工程化第三章:webpack5基础(下)

文章目录 1. TypeScript支持(ts-loader)1.1. ts-loader1.1.1. webpack.config.js1.1.2. tsconfig.json1.1.3. src/index.ts 1.2. 使用babel-loader将ts转换为js1.2.1. webpack.config.js1.2.2. src/index.ts 2. 代码规范检查(Eslint&#xff…

【JavaScript】 var let const 的区别

在JavaScript中,let、var和const是用于声明变量的关键字,它们之间有一些重要的区别: var: var是在ES5(ECMAScript 5)中引入的声明变量的关键字。变量声明的作用域是函数作用域,而不是块级作用…

Java常见练手程序《“书写”百遍,其义自见》

1、锻炼重写方法、抽象类定义、常量、自定义异常与调用。 建立一个Java抽象类Drink,应当 a、声明一个抽象方法taste() 该方法负责输出饮料的味道 b、声明int型常量来代表不同的饮料类型 咖啡、啤酒、牛奶 c、声明静态方法getDrink(int drinkType) 根据传入…

Java设计模式之组合(Composite)模式

组合(Composite)模式用于将对象组合成树形结构,以表示“整体-部分”关系,使得客户端可以像操作一个独立对象一样访问组合类对象。 什么是组合模式 组合模式是一种结构型设计模式,它允许我们将一组相似的对象看作一个…

matlab安装激活后报错找不到icuuc54.dll

matlab激活后,有报错找不到icuuc54.dll 解决办法: 这是因为破解用的版本不一样,我下载的是matlab2016b,但是破解时,在网上下载的matlab2016a的破解包,所以我重新下载2016b的crack包后,然后再在…

PG-DBA培训07:PostgreSQL体系结构深入与源码解析

PostgreSQL体系结构深入解析,PostgreSQL数据库源码解析,initdb源码解析 PostgreSQL数据库体系架构 PostgreSQL数据库存储结构 PostgreSQL数据库进程结构 PostgreSQL数据库内存结构 PostgreSQL数据库源码解析 使用gdb跟踪分析PostgreSQL源码 PostgreSQL源码解析之initdb初始化过…