AI开发:生成式对抗网络入门 模型训练和图像生成 -Python 机器学习

news/2024/11/30 5:52:01/

阶段1:GAN是个啥?

生成式对抗网络(Generative Adversarial Networks, GAN),名字听着就有点“对抗”的意思,没错!它其实是两个神经网络互相斗智斗勇的游戏:

  1. 生成器(Generator):负责造假,生成一些以假乱真的数据。
  2. 判别器(Discriminator):负责打假,判断数据是真还是假。

想象一下,生成器是个假币制造商,判别器是个验钞机。假币制造商不断提升造假能力,验钞机也不断升级打假技巧。最终的目标是生成的假币足以以假乱真,让验钞机无法区分。

生成式对抗网络(GAN)是一种由 Ian Goodfellow 和他的团队在2014年提出的深度学习模型。GAN 本质上是一种用于生成与真实数据分布相似的“新数据”的方法,常用于图像生成、风格转换和数据增强等任务。

一、GAN 的基本概念
1. 两个网络:生成器(Generator)和判别器(Discriminator)

GAN 的核心思想是利用两个神经网络相互对抗:

  • 生成器 (G): 学习生成接近真实数据的“假数据”。其目标是“骗过”判别器,使其认为假数据是真的。
  • 判别器 (D): 学习区分真实数据和生成器生成的假数据。其目标是提高“识别假数据的能力”。

两者形成了一种动态博弈:

  • 生成器不断改进以生成更逼真的数据。
  • 判别器不断改进以更准确地区分真假数据。

最终目标:生成器生成的数据和真实数据难以区分,判别器无法给出明确的判断。

2. 训练目标

GAN 的训练目标可以通过以下损失函数来描述:

  • 判别器的损失:最大化真实数据的得分,最小化假数据的得分。
  • 生成器的损失:最小化判别器对假数据的判断分数(即尽量骗过判别器)。

数学公式为:

这里:

  • D(x)D(x) 表示判别器给真实数据 xx 的打分。
  • G(z)G(z) 表示生成器根据随机噪声 zz 生成的假数据。
3. GAN 的对抗过程

训练过程通常分为两步:

  1. 更新判别器: 让判别器学习如何区分真实和假数据。
  2. 更新生成器: 让生成器学习生成更真实的数据,以骗过判别器。

二、直观例子:警察与造假者

你可以将 GAN 的训练过程类比为“警察(判别器)与造假者(生成器)”之间的较量:

  • 一开始,造假者技术拙劣,警察很容易识破假币。
  • 随着时间推移,造假者的造假技术逐渐提高,而警察也在不断升级检测手段。
  • 最终,假币与真币变得极为相似,警察几乎无法分辨。

阶段2:从头写个最简单的GAN

import torch
import torch.nn as nn
import torch.optim as optim# 1. 生成器(Generator):简单的全连接网络
class Generator(nn.Module):def __init__(self):super(Generator, self).__init__()self.model = nn.Sequential(nn.Linear(100, 256),  # 输入 100 维噪声,输出中间隐藏层 256 维nn.ReLU(),            # 激活函数 ReLU,增加非线性nn.Linear(256, 784),  # 隐藏层输出 784 维数据(28x28 图像展平后)nn.Tanh()             # 将输出限制到 [-1, 1],方便后续训练)def forward(self, z):return self.model(z)# 2. 判别器(Discriminator):另一个简单的全连接网络
class Discriminator(nn.Module):def __init__(self):super(Discriminator, self).__init__()self.model = nn.Sequential(nn.Linear(784, 256),       # 输入 784 维数据(展平的图像)nn.LeakyReLU(0.2),         # 激活函数,允许小负值(更鲁棒)nn.Linear(256, 1),         # 输出一个值(真 or 假)nn.Sigmoid()               # 输出概率,范围 [0, 1])def forward(self, x):return self.model(x)# 初始化网络
G = Generator()
D = Discriminator()# 优化器
optimizer_G = optim.Adam(G.parameters(), lr=0.0002)
optimizer_D = optim.Adam(D.parameters(), lr=0.0002)# 损失函数:二分类交叉熵
criterion = nn.BCELoss()

 代码释疑:

这段代码实现了生成式对抗网络(GAN)的生成器(Generator)和判别器(Discriminator),并为它们设置了优化器和损失函数。以下是对相关内容的详细解释,帮助你理解各个部分的功能。


1. Generator 类:生成器

生成器的作用是生成假数据,用来骗过判别器。

class Generator(nn.Module):def __init__(self):super(Generator, self).__init__()self.model = nn.Sequential(nn.Linear(100, 256),  # 输入 100 维噪声,输出中间隐藏层 256 维nn.ReLU(),            # 激活函数 ReLU,增加非线性nn.Linear(256, 784),  # 隐藏层输出 784 维数据(28x28 图像展平后)nn.Tanh()             # 将输出限制到 [-1, 1],方便后续训练)def forward(self, z):return self.model(z)
关键点:
  • 输入:

    • 生成器的输入是一个随机噪声 z,形状为 [batch_size, 100]
    • 噪声是生成器的起点,让它从随机性中学习目标数据分布。
  • 输出:

    • 输出 784 个值,对应一张 28x28 的图像展平(如 MNIST 数据)。
    • 使用 Tanh 将输出限制在 [-1, 1] 区间,通常是为了和真实数据的归一化范围一致。

2. Discriminator 类:判别器

判别器的作用是判断输入数据是真实的还是生成的。

class Discriminator(nn.Module):def __init__(self):super(Discriminator, self).__init__()self.model = nn.Sequential(nn.Linear(784, 256),       # 输入 784 维数据(展平的图像)nn.LeakyReLU(0.2),         # 激活函数,允许小负值(更鲁棒)nn.Linear(256, 1),         # 输出一个值(真 or 假)nn.Sigmoid()               # 输出概率,范围 [0, 1])def forward(self, x):return self.model(x)
关键点:
  • 输入:

    • 输入是展平的 28x28 图像(784 维),可以是真实数据或生成器的假数据。
  • 输出:

    • 输出是一个概率值,0 表示假,1 表示真。
    • 使用 Sigmoid 将值映射到 [0, 1] 区间。
  • LeakyReLU:

    • 激活函数 LeakyReLU(0.2) 在输入为负值时保留一定斜率(0.2),解决 ReLU 的“死区”问题,使训练更稳定。

3. 优化器

优化器用于更新模型的参数,使损失函数逐渐减小。

optimizer_G = optim.Adam(G.parameters(), lr=0.0002)
optimizer_D = optim.Adam(D.parameters(), lr=0.0002)
  • Adam 优化器:

    • 一种改进的梯度下降算法,适用于深度学习模型,尤其是 GAN。
    • 自动调整学习率,提高收敛速度。
  • 学习率 (lr=0.0002):

    • 学习率设置为 0.0002,是 GAN 训练中一个常见的经验值。
  • 目标:

    • optimizer_G 优化生成器的参数,使其生成更逼真的数据。
    • optimizer_D 优化判别器的参数,使其更好地区分真假数据。

4. 损失函数:BCELoss

BCELoss 是二分类交叉熵损失函数,用于计算判别器和生成器的损失。

criterion = nn.BCELoss()
什么是交叉熵?

交叉熵是一种用来衡量两个概率分布相似度的损失函数,公式如下:

  • yiy_i:真实标签(1 表示真,0 表示假)。
  • pip_i:模型预测的概率值(判别器的输出)。
在 GAN 中的作用:
  1. 判别器的损失:

    • 判别器的目标是区分真实数据和生成器生成的假数据。
    • 对于真实数据,y = 1;对于假数据,y = 0
    • 损失函数让判别器尽量输出接近真实标签的概率。
  2. 生成器的损失:

    • 生成器的目标是让判别器认为假数据是真实的。
    • 生成器通过 GAN 的损失函数间接影响判别器的输出,目标是让判别器输出 y = 1

5. 上述代码小结

  • 生成器 (G): 学习生成逼真的假数据。
  • 判别器 (D): 学习区分真实数据和假数据。
  • 损失函数 (BCELoss): 衡量模型输出概率和目标标签之间的差异。
  • 优化器 (Adam): 调整模型参数,使损失函数最小化。

在训练过程中:

  • 生成器试图最小化生成器的损失。
  • 判别器试图最大化判别器的准确率。

这段代码是 GAN 的基础骨架,你可以在此基础上进行实验,比如用它来生成 MNIST 图像!

题外话:

PyTorch(简称 torch)是一个流行的开源深度学习框架,它提供了许多用于构建和训练神经网络的功能。它特别以易用性、灵活性和性能而著称,是机器学习和深度学习领域的常用工具之一。下面,我们来了解一下 PyTorch 的作用,以及在这段 GAN 代码中它是如何发挥作用的。

1. PyTorch 的基本功能

PyTorch 提供了以下几个关键功能:

  • 张量(Tensor):

    • PyTorch 中的核心数据结构是张量(torch.Tensor),类似于 NumPy 的数组,但是张量支持 GPU 加速。
    • 张量是神经网络中的数据载体,存储输入数据、权重、偏置等。
  • 自动求导(Autograd):

    • PyTorch 提供自动求导功能,能够计算神经网络中每一层的梯度,简化了反向传播算法的实现。
    • 当你定义模型并传入数据后,PyTorch 会自动计算损失函数的梯度,并更新模型的参数。
  • 构建和训练神经网络:

    • 使用 torch.nn 提供的模块,可以方便地构建神经网络的各层(如全连接层、卷积层、激活函数等)。
    • torch.optim 提供了优化算法(如 SGD、Adam)来训练模型。
  • GPU 加速:

    • PyTorch 可以利用 GPU(如 CUDA)来加速计算。你可以将张量和模型移动到 GPU 上,这样就能提高训练速度。

阶段3:它们怎么斗起来?

核心是两步:

  1. 训练判别器:真图片标为1,假图片标为0,看看它能不能区分真伪。
  2. 训练生成器:假图片骗过判别器,努力让判别器给它打1分。
from torchvision import datasets, transforms
from torch.utils.data import DataLoader# 数据加载(MNIST 数据集)
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize([0.5], [0.5])])
mnist = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
dataloader = DataLoader(mnist, batch_size=64, shuffle=True)# 训练循环
epochs = 10
for epoch in range(epochs):for i, (real_imgs, _) in enumerate(dataloader):# ========== 1. 训练判别器 ==========# 真数据real_imgs = real_imgs.view(real_imgs.size(0), -1)  # 展平图片real_labels = torch.ones(real_imgs.size(0), 1)  # 真图片标签为1# 假数据z = torch.randn(real_imgs.size(0), 100)  # 随机噪声fake_imgs = G(z)fake_labels = torch.zeros(real_imgs.size(0), 1)  # 假图片标签为0# 判别器的预测和损失real_preds = D(real_imgs)fake_preds = D(fake_imgs.detach())  # 假图片不更新生成器loss_real = criterion(real_preds, real_labels)loss_fake = criterion(fake_preds, fake_labels)loss_D = loss_real + loss_fake# 优化判别器optimizer_D.zero_grad()loss_D.backward()optimizer_D.step()# ========== 2. 训练生成器 ==========z = torch.randn(real_imgs.size(0), 100)fake_imgs = G(z)fake_preds = D(fake_imgs)loss_G = criterion(fake_preds, real_labels)  # 欺骗判别器的损失# 优化生成器optimizer_G.zero_grad()loss_G.backward()optimizer_G.step()# 打印进度if i % 200 == 0:print(f"Epoch [{epoch+1}/{epochs}], Step [{i}/{len(dataloader)}], "f"D Loss: {loss_D.item():.4f}, G Loss: {loss_G.item():.4f}")

这段代码实现了一个基本的 生成式对抗网络(GAN) 训练过程,使用 MNIST 数据集 生成与真实手写数字类似的图像。执行这段代码会产生以下几个结果:

1. 数据加载(MNIST 数据集)

首先,代码通过 torchvision 中的 datasets.MNIST 加载了 MNIST 数据集。这个数据集包含了 60,000 张手写数字的训练图像和 10,000 张测试图像(这里只使用了训练集)。数据被转换为 PyTorch 张量并做了标准化处理,使每个像素值在 [-1, 1] 之间。然后,DataLoader 将数据划分为批次(batch),每次加载 64 张图像。

2. 训练循环

接下来,代码进入训练循环,在每个 epoch 中,它会进行以下操作:

(1)训练判别器(Discriminator)
  • 真数据:

    • 从 MNIST 数据集中提取实际的手写数字图像,将图像展平为 784 维(28x28 的像素展平)。
    • 创建真实标签,所有真实图像的标签为 1
  • 假数据:

    • 从随机噪声 z(100 维的向量)中生成假图像。
    • 创建假的标签,所有生成的假图像标签为 0
  • 判别器损失:

    • 判别器会分别计算它对真实数据和假数据的预测,使用二元交叉熵损失 BCELoss 计算真实数据和假数据的损失。
    • loss_real 是判别器对真实图像的损失,loss_fake 是对假图像的损失,最终判别器的总损失是两者之和 loss_D
  • 优化判别器:

    • 使用 optimizer_D.zero_grad() 清除先前的梯度,进行反向传播并更新判别器的参数。
(2)训练生成器(Generator)
  • 生成假图像:
    • 使用随机噪声 z 通过生成器生成一批假图像。
  • 生成器损失:
    • 生成器的目标是欺骗判别器,让它认为生成的假图像是真实的。因此,生成器的损失是判别器对这些假图像的预测(希望是 1)的损失,即 loss_G
  • 优化生成器:
    • 使用 optimizer_G.zero_grad() 清除先前的梯度,进行反向传播并更新生成器的参数。

3. 打印进度

每训练 200 个批次,代码会打印出当前 epoch 和 step 的进度,并显示判别器和生成器的损失:

Epoch [1/10], Step [0/938], D Loss: 0.6881, G Loss: 0.7014
Epoch [1/10], Step [200/938], D Loss: 0.6834, G Loss: 0.7102
...

实际运行效果:

执行结果

  1. 训练输出:

    • 在训练过程中,随着生成器和判别器的不断优化,你会看到输出的 D Loss(判别器损失)和 G Loss(生成器损失)。初始时,这两个损失通常较大,因为模型还没有学会如何生成和判断图像。
    • 随着训练的进行,损失会逐渐减小,表示生成器和判别器在相互博弈中逐渐变得更强。
  2. 图像生成:

    • 由于 GAN 的训练是一个对抗过程,因此每个 epoch 训练后,生成器的输出图像会逐渐接近真实图像的分布。
    • 生成器在训练中会变得越来越善于生成逼真的手写数字图像,直到它能够生成看起来很像 MNIST 数据集中的真实数字。

小结

  • 判别器:学习区分真实和假图像,给出图像是“真”还是“假”的概率。
  • 生成器:学习生成越来越像真实手写数字的图像,目的是“欺骗”判别器,使判别器认为生成的假图像是真实的。

执行完这段代码后,生成器(G)会经过 10 个 epoch 的训练,逐步学会生成类似 MNIST 手写数字的图像。你可以根据损失值的变化和生成的图像的质量,观察训练过程的进展。


阶段4:GAN生成的图像是啥样?

每训练一段时间,我们让生成器画个画,看看它有没有长进:

import matplotlib.pyplot as pltdef show_images(generator, num_images=16):z = torch.randn(num_images, 100)  # 随机噪声fake_imgs = generator(z).view(num_images, 1, 28, 28)  # 恢复图片形状fake_imgs = (fake_imgs + 1) / 2.0  # 把值范围从 [-1, 1] 变到 [0, 1]grid = torch.cat([fake_imgs[i] for i in range(num_images)], dim=2).squeeze(0)plt.imshow(grid.detach().numpy(), cmap='gray')plt.axis('off')  # 不显示坐标轴plt.savefig("generated_images.png", bbox_inches='tight')  # 保存图像到文件plt.close()  # 关闭图形窗口

 这是最终生成地图像:

局部放大

是不是可以联想到:生成式对抗网络的应用场景相当广泛,比如半导体晶圆缺陷检测领域,医学影像疾病识别领域等等。


阶段5:GAN训练的问题

GAN不是一帆风顺的,训练GAN像哄熊孩子:生成器和判别器常常互相欺负对方导致训练不稳定。
怎么办?我们可以尝试改进:

  1. 改网络结构:比如用更强大的卷积网络。
  2. 改损失函数:比如使用Wasserstein GAN。
  3. 调参:改动学习率、优化器等等。

这就是生成式对抗网络的基础啦,希望它的斗智斗勇能让你觉得有趣!你也可以试试用它生成其他类型的数据,比如音乐、画作或者文字!


http://www.ppmy.cn/news/1551117.html

相关文章

气膜建筑:打造全天候安全作业空间,提升工程建设效率—轻空间

在现代建筑工程中,施工环境的管理和作业效率是决定项目进度和质量的关键因素。然而,施工过程中常常会受到天气变化的影响,诸如大风、雨雪、沙尘等恶劣天气常常延误工期,增加施工难度。为了解决这一问题,气膜建筑以其独…

计算机网络八股整理(三)

目录 计算机网络八股(三)传输层1:说一下tcp的头部?2:tcp三次握手的过程说一下?拓展linux中查看tcp状态: 3:tcp为什么需要三次握手建立连接?4:tcp三次握手,如果…

思科模拟器Cisco Packet Tracer显示接口(port)标签(labels)

针对思科模拟器Cisco Packet Tracer显示接口(port)标签(labels) 点击 选项(Options) -> 首选项(preference) 窗口如下, 勾选Always Show Port Labels即可 效果如下

MySQL Linux 离线安装

下载 进入官网,下载对应的需要MySQL版本,这里是历史版本。 官网 选择第一个MySQL Community Sever社区版,因为这个是免费的。 选择需要的对应版本: 安装 1.将下载好的安装包上传到服务器端 使用FinalShell 客户端连接服务器 …

oracle日期格式查询

文章目录 TO_CHARyyyy-MM-ddyyyy-MM-dd HH24:MI:SS TO_CHAR 在Oracle数据库中,可以使用TO_CHAR函数来格式化日期。TO_CHAR函数可以将DATE或TIMESTAMP数据类型转换为字符串,并按照指定的格式显示。 yyyy-MM-dd 以下是一个简单的例子,假设我…

【Qt】图片绘制不清晰的问题

背景 实现一个图片浏览器&#xff0c;可以支持放大/缩小查看图片。主要组件如下&#xff1a; // canvaswidget.h #ifndef CANVASWIDGET_H #define CANVASWIDGET_H#include <QWidget>class CanvasWidget : public QWidget {Q_OBJECT public:explicit CanvasWidget(QImag…

猜一个0到10之间的数字 C#

生成随机数、使用循环和判断比较大小&#xff0c;最后猜出正确的数字 主要是生成随机数&#xff0c;固定步骤。 using System;class Program {static void Main(string[] args){//Random生成随机数的类//new用于创建对象的实例//Random()内可以填入种子&#xff0c;生成伪随机…

docker私有仓库的介绍以及 Docker registry 安装

文章目录 什么是 Docker Registry镜像仓库工作机制常用的镜像仓库快速部署 Docker Registry上传镜像下载镜像部署域名地址的Docker registry 什么是 Docker Registry 镜像仓库&#xff08;Docker Registry&#xff09;负责存储、管理和分发镜像&#xff0c;并且提供了登录认证…