pytorch 神经网络基础入门笔记【b站小土堆】

news/2024/11/19 8:48:38/

文章目录

  • python深度学习
  • 配置环境
    • anaconda+pycharm+pytorch
    • python学习中的两大法宝函数
  • 加载数据
  • Tensorboard使用
  • torchvision中的transforms
    • tensor数据类型
    • transform该如何使用
    • 为什么我们需要Tensor类型
    • 更好的使用transforms
      • ToTensor
      • Normalize
      • Resize
      • Compose
      • RandomCrop
      • 总结
  • torchvision数据集的使用
  • DataLoader的使用
  • 神经网络的基本骨架 nn.Module的使用
  • 神经网络基本结构的使用
    • 1. 卷积操作
    • 2. 最大化池的使用
    • 3. 非线性激活
    • 4. 线性层
  • 搭建小实战和Sequential使用
  • 损失函数与反向传播
  • 优化器
  • 模型的保存与读取

b站课程PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
虽然是CV的内容,不过胜在浅,很适合像我这样啥也不懂
该篇笔记并不完整,因为大部分代码都没打上去,推荐0基础的去看这个课,我的笔记可以提供一些帮助,主要还是自用

python深度学习

配置环境

anaconda+pycharm+pytorch

anaconda创建了虚拟环境

上面那个是今天创建的

下面那个是anaconda base的

希望以后能找到

在conda里自己创建的环境,都在anaconda3/envs里可以找到

python学习中的两大法宝函数

对于一个package(pytorch)来说

  • dir():打开、看见
  • help():说明书

加载数据

深度学习的数据集一半都是有规定结构的

通过Dataset()读取数据集

读取数据集路径由三部分构成

root_dir 根目录

label_dir 标签(比如apple/banana)

Img_name 图片名(比如000001.jpg)

Tensorboard使用

  1. 在pycharm设置环境

  2. add_scalar()方法

    def add_scalar(self,tag,scalar_value,global_step=None,walltime=None,new_style=False,double_precision=False,):"""Add scalar data to summary.Args:tag (str): Data identifierscalar_value (float or string/blobname): Value to saveglobal_step (int): Global step value to recordwalltime (float): Optional override default walltime (time.time())with seconds after epoch of eventnew_style (boolean): Whether to use new style (tensor field) or oldstyle (simple_value field). New style could lead to faster data loading.Examples::from torch.utils.tensorboard import SummaryWriterwriter = SummaryWriter()x = range(100)for i in x:writer.add_scalar('y=2x', i * 2, i)writer.close()Expected result:.. image:: _static/img/tensorboard/add_scalar.png:scale: 50 %

  1. 下载pip install tensorboard
  2. 打开log

终端输入:tensorboard --logdir logs

格式:logdir 事件文件所在文件夹名

默认为6006端口,为防止端口冲突可以修改端口:tensorboard --logdir logs --port=6007

打开后,应该是有函数图片的,如果没有请检查一下,输入指令时终端目录一定要是log文件夹的父目录(不是就cd一下),还要激活你创建的虚拟环境

  1. Add_image()方法
    1. 注意一下图片的size,dataformats参数指定
    def add_image(self, tag, img_tensor, global_step=None, walltime=None, dataformats="CHW"):"""Add image data to summary.Note that this requires the ``pillow`` package.Args:tag (str): Data identifierimg_tensor (torch.Tensor, numpy.ndarray, or string/blobname): Image dataglobal_step (int): Global step value to recordwalltime (float): Optional override default walltime (time.time())seconds after epoch of eventdataformats (str): Image data format specification of the formCHW, HWC, HW, WH, etc.
  1. 利用opencv读取图片,获得numpy型图片数据
    1. 用opencv导入图像需要注意BGR转成RGB
  2. 从PIL到numpy,需要在add_image()中指定shape中每一个数字/维度表示的含义
    1. step多少。主要显示多少训练中的过程

torchvision中的transforms

其实就是一个py文件,像一个工具箱

其中有很多工具,包括

  • totensor
  • resize

图片经过这个工具,会输出一个结果

tensor数据类型

其python的用法

通过 transform.ToTenser去看两个问题

  1. transform该如何使用(python)
  2. 为什么我们需要Tenser数据类型

transform该如何使用

    def __call__(self, pic):"""Args:pic (PIL Image or numpy.ndarray): Image to be converted to tensor.Returns:Tensor: Converted image."""return F.to_tensor(pic)
tensor_trans = transforms.ToTensor()
tensor_img = tensor_trans(img)

上面的代码相当于实例化了一个ToTensor()类

然后调用了其中的call方法(—call—函数起到了直接调用类实例的作用)

tensor_img = tensor_trans(img)调用了call方法,相当于tennsor_img = tensor_trans.call(img)

实例化对象后面加个括号就是调用__call__方法(__call__是魔术方法,自动触发)

进行完这个步骤后,整个过程应该是更加具体了

tool是transforms的实例,result是tool这个实例的结果

为什么我们需要Tensor类型

Tensor类包装了我们神经网络所需要的一些基础的参数

更好的使用transforms

属于是对上面的补充

PIL、tensor、narrays三种类型输入,对应不同方法,需要注意

几个方法

ToTensor

from PIL import Image
from torch.utils.tensorboard import SummaryWriter
from torchvision import transformsimg_path = "../data/hymenoptera_data/train/ants_image/0013035.jpg"
img = Image.open(img_path)writer = SummaryWriter("logs")## ToTensor
# 将图片转换为Tensor类型,并通过Tenserboard显示
tensor_trans = transforms.ToTensor()
img_tensor = tensor_trans(img)
writer.add_image("tensor_img", img_tensor)   # 上次传的是numpy型图片,这次传tensor类型的

Normalize

## Normalize 归一化
print(img_tensor[0][0][0])
trans_norm = transforms.Normalize([0.5,0.5,0.5],[0.5,0.5,0.5])
img_norm = trans_norm(img_tensor)
print(img_norm[0][0][0])writer.add_image("image_img", img_norm)
writer.close()

Resize

# 将图片短边缩放至x,长宽比保持不变 transforms.Resize(x)  
## Resize
print(img.size)
trans_resize = transforms.Resize((512,512))
# img PIL -> resize -> img_resize PIL
img_resize = trans_resize(img)
# img_resize PIL -> totensor  -> img_resize tensor
img_resize = tensor_trans(img_resize)  # 只有tensor格式才能在tensorboard上显示
writer.add_image("Resize", img_resize, 0)
print(img_resize)

Compose

# Compose
trans_resize_2 = transforms.Resize(512)
trans_compose = transforms.Compose([trans_resize_2, tensor_trans])
img_resize_2 = trans_compose(img)
writer.add_image("Resize", img_resize_2, 1)
  • 这里就是说compose需要你提供以恶搞转换的列表
  • 列表中第一个trans_resize_2是转化图片大小
  • 第二个将这个转化为tensor格式
  • 相当于一个合并的功能,按照写的列表去执行流程
  • 要注意前一个的输出,要跟后一个的输入相匹配

RandomCrop

随机裁剪

# RandomCrop
trans_random = transforms.RandomCrop(512)
trans_compose_2 = transforms.Compose([trans_random, tensor_trans])
for i in range(10):img_crop = trans_compose_2(img)writer.add_image("ImgCrop", img_crop, 1)

总结

注意方法的输入与输出

学会看帮助文档

学会看源码,关注方法要什么参数

不知道返回值的时候

  • print

  • print(type())

  • Debug

一般来说,和图像本身处理相关的不改变数据格式,数学相关的都是基于Tensor,中间的桥梁是toTensor

torchvision数据集的使用

下载的数据集

import torchvision# 转成tensor数据类型
from torch.utils.tensorboard import SummaryWriterdataset_transform = torchvision.transforms.Compose([torchvision.transforms.ToTensor()
])train_set = torchvision.datasets.CIFAR10(root="./dataset", train=True, transform=dataset_transform, download=True)
test_set = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=dataset_transform, download=True)print(test_set[0])
print(test_set.classes)img, target = test_set[0]
print(img)
print(target)
print(test_set.classes[target])
img.show()writer = SummaryWriter("p10");
for i in range(10):img, target = test_set[i]writer.add_image("test_set",img,i)writer.close()

Tensorboard logdir p10

DataLoader的使用

dataloader是将数据如何加载到神经网络中,从dataset中取数据

其一些参数:

dataset: Dataset[T_co]batch_size: Optional[int]num_workers: intpin_memory: booldrop_last: booltimeout: floatsampler: Union[Sampler, Iterable]pin_memory_device: strprefetch_factor: int_iterator : Optional['_BaseDataLoaderIter']__initialized = False
  • dataset加载的数据集
  • batch_size:一次抽几张
  • shuffle:第二次抽牌和第一次抽牌,是否打乱,默认是false,一般为true
  • num_workers:几个进程进行加载

如果报了broken pipe可以把这个设置为0,看能否解决问题

  • drop_last抽牌之后,如果有剩余的是舍去还是不舍去

  • 测试代码
import torchvision
from torch.utils.data import DataLoader# 准备的测试集
from torch.utils.tensorboard import SummaryWritertest_set = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=torchvision.transforms.ToTensor())test_loader = DataLoader(dataset=test_set, batch_size=64, shuffle=True, num_workers=0, drop_last=False)# 测试数据集中第一张图片及target【就是标签】
img, target = test_set[0]
print(img.shape)
print(target)# 输出
# torch.Size([3, 32, 32])  三通道,32长,32宽
# 3    # 标签为3 test_set.classes里的第三种writer = SummaryWriter("dataloader")
step = 0
for data in test_loader:imgs, targets = dataprint(imgs.shape)print(targets)writer.add_images("test_data", imgs, step)  # 注意方法是add_images,有sstep = step + 1writer.close()
# 输出  其中一次循环
# torch.Size([4, 3, 32, 32])  #前面的4是4张图片的意思,一次取四张图 默认是随机抓取
# tensor([2, 5, 5, 6])     # 4张图片的标签

神经网络的基本骨架 nn.Module的使用

Neural Network

nn

container是骨架

  • 例子
import torch.nn as nn
import torch.nn.functional as Fclass Model(nn.Module):def __init__(self):super().__init__()self.conv1 = nn.Conv2d(1, 20, 5)self.conv2 = nn.Conv2d(20, 20, 5)def forward(self, x):x = F.relu(self.conv1(x))return F.relu(self.conv2(x))
  • 继承nn.Module
  • 主要是写两个函数
    • 初始化
    • forward(前向传播)
  • 例子中的x就是输入经过了一次卷积、一次非线性、又一次卷积、又一次非线性的前向传播处理
  • pycharm继承后重写操作
    • code->generate->重写方法
  • 测试代码
    • 因为集成的nn.Module中forword方法是__call__()方法的实现,可调用对象会调用__call__()方法
import torch
from torch import nnclass Wang(nn.Module):def __init__(self) -> None:super().__init__()def forward(self, input):output = input+1return outputwang = Wang()
x = torch.tensor(1)  # 将1转换为tensor格式并赋值
output = wang(x)  # x(input)->神经网络->output 
print(output)
  • 输出结果:tensor(2)

神经网络基本结构的使用

1. 卷积操作

卷积层

演示卷积代码

import torchvision
from torch.utils.tensorboard import SummaryWriter
from torch.utils.data import DataLoader
from torch import nn
from torch.nn import Conv2dclass Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)def forward(self, x):x = self.conv1(x)return x
  • 打印
wang = Wang()
print(wang)

输出:Wang(
(conv1): Conv2d(3, 6, kernel_size=(3, 3), stride=(1, 1))
)

说明:该神经网络Wang有一层卷积层conv1,参数定义in_channel=3,out_channel=6,卷积核大小为3*3,stride(1,1)表示横向走一步纵向走一步

  • 加入图片演示
import torch
import torchvision
from torch.utils.tensorboard import SummaryWriter
from torch.utils.data import DataLoader
from torch import nn
from torch.nn import Conv2ddataset = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(dataset, batch_size=64)class Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)def forward(self, x):x = self.conv1(x)return x
wang = Wang()
print(wang)writer = SummaryWriter("logs")
step = 0
for data in dataloader:imgs, targrts = dataoutput = wang(imgs)print(imgs.shape)print(output.shape)# torch.Size([64, 3, 32, 32])writer.add_images("input", imgs, step)# torch.Size([64, 6, 30, 30])->[-1, 3, 30, 30]  -1为自动根据后面数值计算# 这里的卷积核个数确实是2,实际操作中一般都是大于等于两个卷积和的,并且我们不会去观察其中间的输出,# 所以通道数变成几都无所谓,这里只是up想让结果可视化,但通道只有等于3的时候才能可视化output = torch.reshape(output, (-1, 3, 30, 30) )writer.add_images("output", output, step)

2. 最大化池的使用

最大化池

Dilation:空洞卷积

ceil/floor:向上/下取整

ceil_mode =True在边缘的时候进行保留

ceil_mode =False在边缘的时候不进行保留

import  torch
from torch import nn
from torch.nn import MaxPool2dinput = torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]], dtype=torch.float32)input = torch.reshape(input, (-1,1,5,5))
print(input.shape)class Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.maxpool1 = MaxPool2d(kernel_size=3,ceil_mode=True)def forward(self, input):output = self.maxpool1(input)return outputwang = Wang()
output = wang(input)
print(output)
  • 为什么要用最大池化

  • 保留特征但是数据量减少

  • 效果类似于把1080p变成720p

  • 池化不影响通道数

池化并不是一定需要,参考李宏毅老师所讲,alphago 只有卷积与激活函数,没有池化

  • 使用图片的效果

3. 非线性激活

提一下padding层,填充边缘的,一般用不到,就算在卷积层也有相应直接填充0的

  • 两个比较常用的
  1. RELU
  1. Sigmoid
import torch
import torchvision
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter# input = torch.tensor([[1,-0.5],
#                       [-1,3]], dtype=torch.float32)
#
# output = torch.reshape(input,(-1,1,2,2))dataset = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(dataset, batch_size=64)class Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.relu1 = ReLU()self.sigmoid1 = Sigmoid()def forward(self, input):output = self.sigmoid1(input)  # 默认inplace是false,不直接替换return outputwang = Wang()writer = SummaryWriter("logs_sigmoid")
step = 0
for data in dataloader:imgs, targrts = datawriter.add_images("input", imgs,global_step = step)output = wang(imgs)writer.add_images("output", output, step)step += 1writer.close()
  • 图像处理结果

  • 加入非线形使得神经网络的泛化能力更好,不会什么都直愣愣的

4. 线性层

全链接的操作,把数据变成一层

四个参数:[batchsize,深度,高,宽]

全链接后变成[batchsize1,深度1,高1,宽自设]

为什么要展平:在普通神经网络里,输入是一个二维矩阵,不需要摊平。而在卷积神经网络里,在网络的最后几层里,会把卷积层摊平放到全连接里进行计算。

搭建小实战和Sequential使用

搭建一个经典的神经网络

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linearclass Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.conv1 = Conv2d(3, 32, 5, padding=2) # 参数:in_channel out_channel kernel_size paddingself.maxpool1 = MaxPool2d(2)self.conv2 = Conv2d(32,32,5,padding=2)self.maxpool2 = MaxPool2d(2)   # 池化可以起到非线性化的作用self.conv3 = Conv2d(32,64,5,padding=2) # kernel是5的话  要保证 kernel的中心块能置于输入的四个角 才能尺寸不变 5的kernal 中心块的个方向都有2个块 所以padding是2self.maxpool3 = MaxPool2d(2)self.flatten = Flatten()# 全链接self.linear1 = Linear(1024,64)self.linear2 = Linear(64,10)  # 最后分成10个类别def forward(self,x):x = self.conv1(x)x = self.maxpool1(x)x = self.conv2(x)x = self.maxpool2(x)x = self.conv3(x)x = self.maxpool3(x)x = self.flatten(x)x = self.linear1(x)x = self.linear2(x)return xwang = Wang()
print(wang)input = torch.ones((64,3,32,32))
output = wang(input)
print(output.shape)

加入序列化sequence后,代码就十分简洁

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.tensorboard import SummaryWriterclass Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10),)def forward(self,x):x = self.model1(x)return xwang = Wang()
print(wang)input = torch.ones((64,3,32,32))
output = wang(input)
print(output.shape)writer = SummaryWriter("logs_seq")
writer.add_graph(wang, input)
writer.close()

然后就得到了可视化的网络

损失函数与反向传播

loss 误差(output和target的差距)

loss越小越好,通过loss function去接近目标

利用误差消除误差

目的

  1. 计算实际输出和目标的差距
  2. 为我们更新输出提供一定的依据(反向传播)

损失函数

只有了损失,才能计算梯度,然后才能更新参数,趋向最优

  • L1Loss函数

    import torch
    from torch.nn import L1Lossinputs = torch.tensor([1,2,3] ,dtype=torch.float32)
    targets = torch.tensor([1,2,5] ,dtype=torch.float32)inputs = torch.reshape(inputs,(1,1,1,3))   # 这个变形相当于转换为tensor类型,[1,2,3]就是最后的(1,3)
    targets = torch.reshape(targets,(1,1,1,3))print(inputs)
    loss = L1Loss()
    result = loss(inputs,targets)
    print(result)
    
    • 计算[1,2,3]与[1,2,5]的loss(平均或求和都可以设置,这里是平均)
    • loss= (0+0+2)/3=0.667
    • 跟程序输出结果一致
  • MSEloss

    • 每个差的平方和
  • CrossEntroyLoss

    • 交叉熵
    • 在分类问题中常用的损失函数
    • 输出评估分数为[0.1,0.2,0.3]时,class1的交叉熵
x = torch.tensor([0.1,0.2,0.3])
y = torch.tensor([1])
x = torch.reshape(x,(1,3))
loss_cross = nn.CrossEntropyLoss()
result_cross = loss_cross(x,y)
print(result_cross)
  • 总结:根据需求去选用loss function,同时要注意输入和输出

  • loss计算实际输出和目标之间的差距

  • 为我们更新输出提供了一定的依据(反向传播)。

  • 比如说对于卷积层来说,每个卷积核其中的参数是我们需要调优的,每个节点(参数)都被设置了一个梯度grad,根据梯度进行优化,达到整个loss下降的目的

科普:反向传播意思就是,尝试如何调整网络过程中的参数才会导致最终的loss变小(因为是从loss开始推导参数,和网络的顺序相反,所以叫反向传播),以及梯度的理解可以直接当成“斜率”

  • 在上一节课的模型基础上添加loss调试
import torch
import torchvision
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(dataset, batch_size=1, drop_last=True)class Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10),)def forward(self,x):x = self.model1(x)return xwang = Wang()
loss = nn.CrossEntropyLoss()
for data in dataloader:imgs, targets = dataoutputs = wang(imgs)result_loss = loss(outputs,targets)result_loss.backward()print(result_loss)# print(output)# print(targets)

断点打在第40行调试,在40行没执行前,一步步找到神经网络某个卷积层,发现其weight权重参数下有个grad是空的

运行40行后,发现grad有值

  • 下一节的优化器,就会根据这些梯度grad,对参数进行更新,使整个loss变小, 模型更好
  • 而这些梯度grad,必须要通过反向传播,才能计算

优化器

torch.optim

  1. 先构建一个优化器
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)
optimizer = optim.Adam([var1, var2], lr=0.0001)
  1. 优化步骤
for input, target in dataset:optimizer.zero_grad()# 一定要先清零,以防上一个循环中每个参数对应梯度的影响output = model(input)loss = loss_fn(output, target)loss.backward()optimizer.step()

第四行:反向传播,得到每个要更新参数对应的梯度 ;

第五行:每个参数会根据上一步得到的梯度进行优化

  1. 再讲讲优化器的算法

  • 打开其中一个优化器后发现,除了要传入神经网络需要调节的params是啥,和lr(learning rate)学习速率外,其余的参数都是不同算法不一样的

![](https://pic.imgdb.cn/item/63afd2a82bbf0e799458df0f.pnochoch

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset = torchvision.datasets.CIFAR10(root="./dataset", train=False, transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(dataset, batch_size=1, drop_last=True)class Wang(nn.Module):def __init__(self):super(Wang, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10),)def forward(self,x):x = self.model1(x)return xwang = Wang()
loss = nn.CrossEntropyLoss()
optim = torch.optim.SGD(wang.parameters(),lr=0.01)  # 学习速率不大不小,开始我们选用小的学习速率
for epoch in range(5):running_loss = 0.0for data in dataloader:imgs, targets = dataoutputs = wang(imgs)  # 前向传播输出result_loss = loss(outputs,targets) # 计算lossoptim.zero_grad()  # 清空优化器中的gradresult_loss.backward() # 反向传播,生成gradoptim.step()  # 优化器根据grad计算,调整神经网络中的参数running_loss += result_lossprint(running_loss)

模型的保存与读取

  • 模型保存

  • 模型加载


http://www.ppmy.cn/news/18865.html

相关文章

<Python的文件>——《Python》

目录 1.文件 1.1 文件是什么 1.2 文件路径 1.3 文件操作 1.3.1 打开文件 1.3.2 关闭文件 1.3.3 写文件 1.3.4 读文件 1.3.5 关于中文的处理 1.4 使用上下文管理器 1.文件 1.1 文件是什么 变量是把数据保存到内存中. 如果程序重启/主机重启, 内存中的数据就会丢失.…

分类算法有哪些? 回归与分类有什么区别?

一、分类算法 1. 朴素贝叶斯(Naive Bayesian Classifier) 朴素贝叶斯算法属于传统机器学习中非常经典的分类算法之一,具体的算法流程可以参考之前的blog:https://blog.csdn.net/m0_51339444/article/details/126436309 我们所熟悉的神经网络,支持向量机和Logistic Regres…

2022年终总结:勇气

今天是2023年的大年初一,今年过年和去年一样,依旧是在北京过。这次没有回家,并不是因为疫情,而是老婆还有一个月就到预产期了,虽然老家的距离并不是很远,但还是考虑少一些劳顿,等明年再回去吧。…

基于android的母婴商城app系统

一、国内外研究现状与选题意义 1.国内现状分析 随着人们生活水平的提高,带来了消费的逐渐升级。母婴市场政策红利三胎政策的放开。母婴市场的潜力巨大。在我国目前已经有一些母婴APP在市场上出现。丁香妈妈这款母婴APP是一个科学育儿的平台,…

高等数学【合集】

文章目录极限计算求导计算极限计算 第一步:先看x→value确定类型第一步:先看x \rightarrow value确定类型第一步:先看x→value确定类型 7种未定型:∞∞,00,1∞,0∞,∞0,00,∞−∞7种未定型: \frac{\infty}{\infty},\frac{0}{0},1^{\infty},0^{\infty},\infty^0,0^0,\infty-\inf…

C语言基础知识总结大全(六)

20.共用体 共用体是一种特殊的数据类型&#xff0c;允许您在相同的内存位置存储不同的数据类型。您可以定义一个带有多成员的共用体&#xff0c;但是任何时候只能有一个成员带有值。共用体提供了一种使用相同的内存位置的有效方式。 #include <stdio.h> #include <s…

如何使用file_get_contents实现发送GET、POST请求

虽然说发送get、post请求可以使用curl,但是吧对于一个极小的项目却显得没那个必要了,curl代码量着实有点大了,虽然你可以放公共函数里,但是有些特殊场景下用不了公共函数,这个时候file_get_contents的便利性就凸显出来了,总之你可以不用但你不能不会,OK!开始教学 发送G…

递归和分治(基础)

目录 一、递归的定义 1、什么时候会用到递归的方法 1. 定义是递归的 2. 数据结构是递归的 3. 问题的解法是递归的 2、应用递归的原则 3、递归调用顺序问题 1. 首先递归的过程可以总结为以下几点&#xff1a; 2. 递归工作栈 二、 递归和非递归的转化 1. 单向递归可…