自训Transformer模型:识别图像是否由AI生成?

devtools/2024/10/18 7:45:06/

背景

随着AI生成图像技术的迅猛发展,特别是生成对抗网络(GANs)和深度学习的不断进步,生成的图像变得越来越逼真。

这项技术不仅催生了许多创新应用,也带来了潜在的风险和挑战。

Transformer模型在图像识别中的作用

1、特征学习能力:Transformer模型具有强大的特征提取和表示能力,能够从图像中学习到细微的特征差异,识别出AI生成图像与真实图像之间的细微区别。

2、上下文理解:与传统的卷积神经网络(CNN)相比,Transformer模型更擅长捕捉图像中的全局上下文信息,使其在识别AI生成图像时,尤其在细节和纹理方面,表现得更加精准。

3、适应性强:通过预训练和微调,Transformer模型能够适应各种图像生成技术,保持高效的识别能力,即便面对不断进化的AI生成技术。

以下是一个利用Transformer模型来识别图像是否由AI生成的例子。

数据集

类别训练集数量测试集数量
FAKE50,00010,000
REAL50,00010,000
总计100,00020,000

图片

50,000个真实图片和50,000个AI生成图片

完整步骤

1、导入包

import numpy as np
from datasets import load_dataset
import torch
from transformers importViTFeatureExtractor
from transformers importTrainingArguments
from transformers importTrainer
import tensorflow as tf
from tensorflow.keras.preprocessing.image importImageDataGenerator
from transformers importViTForImageClassification, default_data_collator
from torch.utils.data importDataLoader,Dataset
import os
from PIL import Image

2、图像进行预处理

from torch.utils.data importDataset
from PIL importImage
import os
import torchclassCustomImageDataset(Dataset):
def __init__(self, img_dir, feature_extractor):
"""初始化数据集。:param img_dir: 包含图像的根目录路径。应包含两个子目录:'REAL' 和 'FAKE'。:param feature_extractor: 用于图像预处理的特征提取器。"""
self.img_dir = img_dir
self.img_labels =[]#存储图像标签的列表
self.img_files =[]#存储图像文件路径的列表
self.feature_extractor = feature_extractor  # 特征提取器
self.label_mapping ={'REAL':1,'FAKE':0}#标签映射字典# 遍历 'REAL' 和 'FAKE' 目录
for label_dir in['REAL','FAKE']:dir_path = os.path.join(img_dir, label_dir)#获取每个子目录的路径files = os.listdir(dir_path)#获取目录中的所有文件
for file in files:
# 将每个文件的完整路径添加到 img_files 列表
self.img_files.append(os.path.join(dir_path, file))
# 将每个文件的标签添加到 img_labels 列表
self.img_labels.append(self.label_mapping[label_dir])def __len__(self):
"""返回数据集中图像的数量。:return: 数据集中图像的总数。"""
return len(self.img_files)def __getitem__(self, idx):
"""根据给定的索引返回图像和标签。:param idx: 图像的索引。:return: 一个字典,包含图像的张量 'pixel_values' 和标签的张量 'labels'。"""img_path =self.img_files[idx]#获取图像路径image =Image.open(img_path).convert("RGB")#打开图像并转换为 RGB 格式label =self.img_labels[idx]#获取对应的标签features =self.feature_extractor(images=image, return_tensors="pt")#使用特征提取器处理图像
# 确保输出是字典格式,并移除多余的维度
return{"pixel_values": features['pixel_values'].squeeze(),"labels": torch.tensor(label)}

3、加载了一个本地保存的Vision Transformer模型和特征提取器,设置设备(GPU 或 CPU),并创建了用于训练和测试的数据集和数据加载器。

from transformers importViTFeatureExtractor,ViTForImageClassification
from torch.utils.data importDataLoader
import torch# Vision Transformer (ViT) 模型在 ImageNet-21k(1400 万张图像,21,843 个类别)上以 224x224 分辨率进行预训练。
model_id ='google/vit-base-patch16-224-in21k'# 定义本地模型文件路径
model_path ='../model'# 加载特征提取器
feature_extractor =ViTFeatureExtractor.from_pretrained(model_path,#使用本地路径local_files_only=True# 仅使用本地文件
)# 设定设备(GPU 或 CPU)
device = torch.device('cuda'if torch.cuda.is_available()else'cpu')# 加载分类器模型
model =ViTForImageClassification.from_pretrained(model_path,#使用本地路径num_labels=2,#设置分类标签的数量local_files_only=True# 仅使用本地文件
)# 将模型移到所选设备(GPU 或 CPU)
model.to(device)# 创建数据集
train_dataset =CustomImageDataset(img_dir='../dataset/train', feature_extractor=feature_extractor)
test_dataset =CustomImageDataset(img_dir='../dataset/test', feature_extractor=feature_extractor)# 创建数据加载器
train_loader =DataLoader(train_dataset, batch_size=16, shuffle=True)#训练集的数据加载器
test_loader =DataLoader(test_dataset, batch_size=16, shuffle=False)   # 测试集的数据加载器

4、打印当前设备,查看使用的设备类型。

# 打印当前设备
print("当前设备:", device)

5、设置了训练模型的参数,并使用这些参数初始化了一个Trainer实例

from transformers importTrainer,TrainingArguments, default_data_collator# 配置训练参数
training_args =TrainingArguments(per_device_train_batch_size=4,#每个设备上训练的批次大小为4evaluation_strategy="epoch",#每个训练周期结束时进行评估num_train_epochs=4,#总共训练4个周期(epochs)save_strategy="epoch",#每个训练周期结束时保存模型logging_steps=10,#每10个训练步骤记录一次日志learning_rate=2e-4,#学习率设置为0.0002save_total_limit=2,#保留最新的2个模型检查点,删除旧的检查点remove_unused_columns=False,#不移除数据集中未使用的列push_to_hub=False,#不将模型推送到HuggingFaceHubload_best_model_at_end=True,#在训练结束时加载性能最佳的模型output_dir="./outputs",#模型和其他输出保存到指定目录use_cpu=False# 不强制使用 CPU,默认使用 GPU(如果可用)
)# 初始化 Trainer
trainer =Trainer(model=model,#使用之前定义的模型args=training_args,#使用上面定义的训练参数train_dataset=train_dataset,#训练数据集eval_dataset=test_dataset,#评估数据集data_collator=default_data_collator,#数据整理器,用于处理数据批次compute_metrics=None,#计算指标的函数,此处不计算任何指标
)

6、开始训练

trainer.train()

时间很长。

图片

7、将trainer实例中的模型(包括模型的权重和配置)保存到指定的目录。

trainer.save_model("./outputs/final model")

图片

8、开始验证

from transformers importAutoFeatureExtractor,AutoModelForImageClassification
import os
import torch
from PIL importImage
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif']=['Microsoft YaHei']
plt.rcParams['axes.unicode_minus']=False# 使用绝对路径
model_path = os.path.abspath("D:\\MY\\8-m\\final model")# 尝试加载特征提取器和模型
try:feature_extractor =AutoFeatureExtractor.from_pretrained(model_path, local_files_only=True)
exceptOSErroras e:
print(f"加载特征提取器时出错: {e}")try:model =AutoModelForImageClassification.from_pretrained(model_path, local_files_only=True)
exceptOSErroras e:
print(f"载模型时出错: {e}")# 设备设置
device = torch.device("cuda"if torch.cuda.is_available()else"cpu")
model.to(device)# 加载和预处理图像
image_path ='潘展乐.png'
image =Image.open(image_path).convert("RGB")
inputs = feature_extractor(images=image, return_tensors="pt")
pixel_values = inputs['pixel_values'].to(device)# 执行预测
model.eval()
with torch.no_grad():outputs = model(pixel_values)# 解析预测结果
logits = outputs.logits
predicted_class_idx = logits.argmax(-1).item()
predicted_label ='真实'if predicted_class_idx ==1else'AI生成'# 打印预测标签
print(f"预测标签: {predicted_label}")# 展示图像和预测结果
plt.imshow(image)
plt.axis('off')
plt.title(f"预测标签: {predicted_label}")
plt.show()

图片

潘展乐,很棒的小伙

图片

字节豆包生成的照片

over,模型的准确率还是很棒的。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。


http://www.ppmy.cn/devtools/93796.html

相关文章

端到端 AWS 定量分析:使用 AWS 和 AWSCLI 自动运行脚本

使用 AWSCLI 启动、运行和关闭 AWS 服务器 添加图片注释,不超过 140 字(可选) 欢迎来到雲闪世界。我们开发了两个 Python 脚本;一个用于为我们获取数据,另一个用于使用 sklearn 的决策树分类器处理数据。然后&#xf…

日本职场商务礼仪,一篇带你了解

作为生活在日本的外国人,无论是生活还是在工作中,了解日本的各种礼仪可以帮助大家进一步理解日本文化,从而更快更自然的融入日本的生活,掌握了各种场合的礼仪之后也可以避免对他人造成不必要的困扰以及给自己造成的尴尬境遇。工作…

挖矿木马简介

挖矿木马简介 • 挖矿(Mining),早期与比特币有关,用户使用个人计算机下载软件,然后运行特定的算法,与远方服务器通信后得到相应比特币,挖矿就是利用比特币挖矿赚取比特币 • 由于挖矿成本过于…

CSS3下拉菜单实现

导航菜单&#xff1a; <nav class"multi_drop_menu"><!-- 一级开始 --><ul><li><a href"#">Power</a></li><li><a href"#">Money</a></li><li><a href"#"…

Vue3 插槽用法详解

插槽的概念 你可以把插槽想象成是预留给父组件填充内容的占位符。这样一来&#xff0c;父组件就可以根据需要插入 HTML 结构或者其他组件了。 插槽分为&#xff1a;匿名插槽、具名插槽、作用域插槽 匿名插槽 当子组件中有多个插槽时&#xff0c;父组件传入的内容会填充到子…

解决 MacOS 连接公司 VPN 成功但是不能网络的问题

目录 解决办法2024 Mac mini 爆料 解决办法 操作比较简单&#xff0c;修改配置文件即可&#xff08;如果没有则需要手动创建&#xff09;。 sudo vim /etc/ppp/options在此文件下&#xff0c;加入 plugin L2TP.ppp&#xff1a; plugin L2TP.ppp如果文件里有l2tpnoipsec&…

搭建知识中台:让企业告别低效率

在当今这个信息爆炸、知识更新日新月异的时代&#xff0c;企业面临着前所未有的挑战与机遇。如何在浩瀚的信息海洋中高效筛选、整合并利用知识资源&#xff0c;成为决定企业竞争力的关键因素之一。因此&#xff0c;搭建知识中台&#xff0c;构建企业知识管理的核心枢纽&#xf…

Git相关教程

版本控制 学习目标 理解版本控制的必要性了解常用的版本控制方式熟悉 Git 的使用方法 什么是版本控制 可以把一个版本控制系统理解为一个“数据库”&#xff0c;在需要的时候&#xff0c;它可以帮你完整地保存一个项目的快照。当你需要查看一个之前的快照&#xff08;称之为…