TensorFlow_T4 猴痘病识别

server/2024/11/28 14:01:48/

目录

 

一、前言

 二、前期准备

1、设置GPU

2、导入数据

3、查看数据

三、数据预处理

1、加载数据

2、可视化数据

3、再次检查数据

4、配置数据集

四、构建CNN网络

五、编译

六、训练模型

七、模型评估

1、Loss and Acurracy图

2、指定图片进行预测


一、前言

  •   🍨 本文为🔗365天深度学习训练营中的学习记录博客
  • 🍖 原作者:K同学啊

 二、前期准备

1、设置GPU

python">from tensorflow       import keras
from tensorflow.keras import layers,models
import os, PIL, pathlib
import matplotlib.pyplot as plt
import tensorflow        as tfgpus = tf.config.list_physical_devices("GPU")if gpus:gpu0 = gpus[0]                                        #如果有多个GPU,仅使用第0个GPUtf.config.experimental.set_memory_growth(gpu0, True)  #设置GPU显存用量按需使用tf.config.set_visible_devices([gpu0],"GPU")
gpus

2、导入数据

python">data_dir = "./P4/"data_dir = pathlib.Path(data_dir)

3、查看数据

python">image_count = len(list(data_dir.glob('*/*.jpg')))print("图片总数为:",image_count)

运行结果如下:

  

python">Monkeypox = list(data_dir.glob('Monkeypox/*.jpg'))
PIL.Image.open(str(Monkeypox[0]))

运行结果如下:

  

三、数据预处理

1、加载数据

python">batch_size = 32
img_height = 224
img_width = 224

(1)调大batchsize会使得模型训练速度更快,但可能会降低模型的泛化能力。因为较大的batchsize意味着每次更新参数时使用的训练样本更多,这会导致模型对训练数据的噪声更加敏感,从而降低了模型在未见过的数据上的性能。
(2)调小batchsize则会使得模型训练速度变慢,但可能会提高模型的泛化能力。较小的batchsize意味着每次更新参数时使用的训练样本较少,这会使模型对训练数据的细节更加敏感,从而提高了模型在未见过的数据上的性能。然而,过小的batchsize可能会导致训练不稳定或收敛速度较慢。

python">train_ds = tf.keras.preprocessing.image_dataset_from_directory(data_dir,validation_split=0.2,shuffle=True,subset="training",seed=123,image_size=(img_height, img_width),batch_size=batch_size)

运行结果如下:

  

python">val_ds = tf.keras.preprocessing.image_dataset_from_directory(data_dir,validation_split=0.2,shuffle=True,subset="validation",seed=123,image_size=(img_height, img_width),batch_size=batch_size)

运行结果如下:

  

2、可视化数据

python">plt.figure(figsize=(20, 10))for images, labels in train_ds.take(1):for i in range(20):ax = plt.subplot(5, 10, i + 1)plt.imshow(images[i].numpy().astype("uint8"))plt.title(class_names[labels[i]])plt.axis("off")

运行结果如下:

  

3、再次检查数据

python">for image_batch, labels_batch in train_ds:print(image_batch.shape)print(labels_batch.shape)break #只处理一个批次的

运行结果如下:

  

4、配置数据集

prefetch()功能详细介绍:CPU 正在准备数据时,加速器处于空闲状态。相反,当加速器正在训练模型时,CPU 处于空闲状态。因此,训练所用的时间是 CPU 预处理时间和加速器训练时间的总和。prefetch()将训练步骤的预处理和模型执行过程重叠到一起。当加速器正在执行第 N 个训练步时,CPU 正在准备第 N+1 步的数据。这样做不仅可以最大限度地缩短训练的单步用时(而不是总用时),而且可以缩短提取和转换数据所需的时间。如果不使用prefetch(),CPU 和 GPU/TPU 在大部分时间都处于空闲状态:

  

使用prefetch()可显著减少空闲时间:

  

 cache() :将数据集缓存到内存当中,加速运行

python">AUTOTUNE = tf.data.AUTOTUNEtrain_ds = train_ds.cache().shuffle(1000).prefetch(buffer_size=AUTOTUNE)
val_ds = val_ds.cache().prefetch(buffer_size=AUTOTUNE)

这段代码是用于优化数据加载和预处理过程:

(1)AUTOTUNE = tf.data.AUTOTUNE: tf.data.AUTOTUNE是一个特殊的值,用于告诉TensorFlow在运行时自动调整数据加载和预处理的参数,以获得最佳性能。

(2)train_ds = train_ds.cache(): 这行代码将训练数据集(train_ds)缓存到内存中。缓存可以将数据集存储在内存中,以便更快地访问和处理数据。这对于大型数据集非常有用,因为它可以避免重复读取和预处理数据。

(3)train_ds = train_ds.shuffle(1000): 这行代码对训练数据集进行随机洗牌。洗牌操作会随机打乱数据集中的样本顺序,有助于提高模型的泛化能力。这里的1000表示洗牌缓冲区的大小,即每次从数据集中抽取多少个样本进行洗牌。

(4)train_ds = train_ds.prefetch(buffer_size=AUTOTUNE): 这行代码使用prefetch方法预取训练数据集的下一个批次。预取操作可以在数据实际被模型使用之前将其加载到内存中,从而减少等待时间并提高数据处理速度。buffer_size=AUTOTUNE表示使用前面定义的AUTOTUNE变量作为预取缓冲区的大小。

(5)val_ds = val_ds.cache(): 这行代码将验证数据集(val_ds)缓存到内存中。与训练数据集类似,缓存可以加速数据的访问和处理。

(6)val_ds = val_ds.prefetch(buffer_size=AUTOTUNE): 这行代码使用prefetch方法预取验证数据集的下一个批次。与训练数据集类似,这里也使用了buffer_size=AUTOTUNE来自动调整预取缓冲区的大小。

四、构建CNN网络

卷积神经网络(CNN)的输入是张量 (Tensor) 形式的 (image_height, image_width, color_channels),包含了图像高度、宽度及颜色信息。不需要输入batch size。color_channels 为 (R,G,B) 分别对应 RGB 的三个颜色通道(color channel)。在此示例中,我们的 CNN 输入的形状是 (224, 224, 3)即彩色图像。我们需要在声明第一层时将形状赋值给参数input_shape

  

python">num_classes = 2model = models.Sequential([layers.experimental.preprocessing.Rescaling(1./255, input_shape=(img_height, img_width, 3)),layers.Conv2D(16, (3, 3), activation='relu', input_shape=(img_height, img_width, 3)),  layers.AveragePooling2D((2, 2)),              layers.Conv2D(32, (3, 3), activation='relu'),  layers.AveragePooling2D((2, 2)),               layers.Dropout(0.3),  layers.Conv2D(64, (3, 3), activation='relu'),  layers.Dropout(0.3),  layers.Flatten(),                       layers.Dense(128, activation='relu'),   layers.Dense(num_classes)               
])model.summary() 

运行结果如下:

  

五、编译

在准备对模型进行训练之前,还需要再对其进行一些设置。以下内容是在模型的编译步骤中添加的:

  • 损失函数(loss):用于衡量模型在训练期间的准确率。
  • 优化器(optimizer):决定模型如何根据其看到的数据和自身的损失函数进行更新。
  • 指标(metrics):用于监控训练和测试步骤。以下示例使用了准确率,即被正确分类的图像的比率。
python"># 设置优化器
opt = tf.keras.optimizers.Adam(learning_rate=1e-4)model.compile(optimizer=opt,loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),metrics=['accuracy'])

六、训练模型

python">from tensorflow.keras.callbacks import ModelCheckpointepochs = 50checkpointer = ModelCheckpoint('best_model.h5',monitor='val_accuracy',verbose=1,save_best_only=True,save_weights_only=True)history = model.fit(train_ds,validation_data=val_ds,epochs=epochs,callbacks=[checkpointer])

(1) from tensorflow.keras.callbacks import ModelCheckpoint
这行代码导入了ModelCheckpoint类,它是Keras中用于在训练过程中保存模型权重和最佳性能的回调函数。
(2) checkpointer = ModelCheckpoint(……) 这行代码创建了一个ModelCheckpoint对象,用于在训练过程中保存模型的最佳性能。具体来说,它指定了以下参数:
'best_model.h5':保存模型的文件名;
monitor='val_accuracy':监控指标为验证集上的准确率;
verbose=1:在训练过程中输出详细信息;
save_best_only=True:仅保存具有最佳性能的模型;
save_weights_only=True:仅保存模型的权重,不保存整个模型结构。
(3)history = model.fit(train_ds, validation_data=val_ds, epochs=epochs, callbacks=[checkpointer]) 这行代码使用fit方法来训练模型。它传递了以下参数:
train_ds:训练数据集;
validation_data=val_ds:验证数据集;
epochs=epochs:训练轮数;
callbacks=[checkpointer]:回调函数列表,包括之前创建的checkpointer对象。

  

七、模型评估

1、Loss and Acurracy图

python">acc = history.history['accuracy']
val_acc = history.history['val_accuracy']loss = history.history['loss']
val_loss = history.history['val_loss']epochs_range = range(epochs)plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

  

2、指定图片进行预测

python">
model.load_weights('best_model.h5')from PIL import Image
import numpy as np# 打开图像并转换为RGB模式
image = Image.open("./P4/Monkeypox/M06_01_04.jpg").convert("RGB")# 将图像转换为NumPy数组
numpy_image = np.array(image)# 将NumPy数组转换为Tensor
tensor_image = tf.convert_to_tensor(numpy_image, dtype=tf.float32)img_array = tf.expand_dims(tensor_image, 0) predictions = model.predict(img_array) # 这里选用你已经训练好的模型
print("预测结果为:",class_names[np.argmax(predictions)])

预测结果为: Monkeypox


👏觉得文章对自己有用的宝子可以收藏文章并给小编点个赞!

👏想了解更多统计学、数据分析、数据开发、机器学习算法、深度学习等有关知识的宝子们,可以关注小编,希望以后我们一起成长!


http://www.ppmy.cn/server/137666.html

相关文章

香港将承办2025年全运会项目

行政長官在去年的施政報告中,表明政府會繼續以精英化、專業化、盛事化、產業化和普及化推動本港體育發展。隨着啟德體育園啟用在即,明年舉辦的第十五屆全國運動會,香港也會承辦當中八個競賽項目,相信屆時會將香港市民對體育運動的…

Vue学习笔记(十五)

文章目录 3.4. 【reactive 创建:对象类型的响应式数据】3.5. 【ref 创建:对象类型的响应式数据】3.6. 【ref 对比 reactive】3.7. 【toRefs 与 toRef】3.8. 【computed】3.9.【watch】\* 情况一\* 情况二\* 情况三\* 情况四\* 情况五 3.10. 【watchEffec…

使用Navicat连接远程服务器中在docker中运行的MySQL数据库保姆级教程

使用Navicat连接远程服务器中在docker中运行的MySQL数据库保姆级教程 一、需要的资源 Navicat客户端(我使用的是17.0.8版本,安装教程B站搜一个,很快能解决)服务器(已安装docker并运行了MySQL) 二、步骤 …

【AI开源项目】FastGPT- 快速部署FastGPT以及使用知识库的两种方式!

文章目录 一、FastGPT大模型介绍1. 开发团队2. 发展史3. 基本概念 二、FastGPT与其他大模型的对比三、使用 Docker Compose 快速部署 FastGPT1、安装 Docker 和 Docker Compose(1). 安装 Docker(2). 安装 Docker Compose&#xff…

Vite学习之模式

在安装了 Vite 的项目中,可以在 npm scripts 中使用 vite 可执行文件,下面是通过脚手架创建的 Vite 项目中默认的 npm scripts: 启动开发服务器(dev命令)——vite package.json {"scripts": {"dev&q…

vue.set主要是干啥的,有啥作用

Vue.set 是 Vue.js 提供的一个全局方法,它主要用于向响应式对象中添加一个新的响应式属性,并确保这个属性的变化能够被 Vue 的响应式系统检测到,从而触发视图的更新 举例说明 当然可以。以下是几个使用 Vue.set 的示例: 示例 1&a…

Python中的字符串“不可改变。/可以改变?”

Python中,规定字符串是“不可变”类型,字符串方法可以“重写”字符串。Python最终让您明白,“字符串不可改变”。😎 (笔记模板由python脚本于2024年11月01日 17:55:57创建,本篇笔记适合熟悉python础数据类型str的coder…

#渗透测试#SRC漏洞挖掘# 操作系统-Linux系统

免责声明 本教程仅为合法的教学目的而准备,严禁用于任何形式的违法犯罪活动及其他商业行为,在使用本教程前,您应确保该行为符合当地的法律法规,继续阅读即表示您需自行承担所有操作的后果,如有异议,请立即停…