FLUX.1 实测,堪比 Midjourney 的开源 AI 绘画模型,无需本地显卡,带你免费实战

embedded/2024/12/22 19:51:07/

要列举 AI 绘画开源界的几个关键贡献,一定少不了 Stable Diffusion。

还记否前不久刚推出的 Stable Diffusion 3?

其背后的团队 Stability AI,真的是一波三折,其核心成员出走,成立了一个新公司:Black Forest Labs - 黑暗森林。

这不,刚刚开源了一款 AI 绘画模型,直接踢馆老东家,其生成效果,完全可以媲美闭源的 Midjourney。

今日分享,就带大家来体验一番,并在本地部署起来。

之前我的 AI 绘画,都是来自本地部署的 sd-webui。终于,我的 Stable Diffusion 2 该下线 - 光荣退休了?

No!No!No!

尽管 Flux.1 的表现可圈可点,不过要说能完全替代 sd,至少现阶段,还不至于。

我们先来实测体验一番~

目录

  • 1. Flux.1 简介
  • 2. 在线体验
  • 3. 本地部署
    • 3.1 模型下载地址
    • 3.2 ModelScope 实战
      • Step1:下载 ComfyUI
      • Step2:下载模型
      • Step3:启动 ComfyUI
      • Step4:cloudflared 安装和使用
      • Step5:愉快玩耍
  • 写在最后

1. Flux.1 简介

FLUX.1 AI 号称的优势有:

• 卓越的视觉质量: 生成具有出色细节和清晰度的图像。

• 精确的提示词遵循: 准确地将文本提示转化为图片,一次生成,无需抽卡。

• 多样化的风格: 支持广泛的艺术风格。

• 复杂场景生成: 创建精细详尽的场景。

真的有吹的那么神么?我们来实测体验一番👇

2. 在线体验

我们以官网的地址为例,一起来体验一下。
使用非常简单,文本框输入你想要生成的内容,右侧一键 Run

右侧提示框出现分配到GPU后,生成一张图像大概 30-50S 左右。

我用下面这个提示词实测了一下,第一次尝试在图片中生成中文,居然失败了!
所以最好使用英文提示词。

A Monkey holding up a sign with a rainbow in it, 
reading "猴哥 AI"

不过有一说一,这个 mokey 的毛发生成的还挺精细的~

当然,下方还可以进行一番简单的设置,比如最基础的希望生成图像的宽和高:

然后,我们把提示词修改一下,让它生成一只卡通猴子~

A catoon monkey with smile holding up a sign with a rainbow in it, reading "AI".

哈哈,尽管并没完全按照指令生成。不过,个人感觉还是挺可爱的,用来做logo、做封面怎么样?

再来测试一个封面图,我让它写上 Houge AI

A round chocolate cake decorated with chocolate shavings, topped with the words Houge AI in white icing and garnished with red cherries. The cake is positioned on a white plate on a wooden table, with a coffee cup and saucer in the background.

接着,我们再从 AI 绘画社区中找一些垂类模型的提示词来实测一下:

1girl,sweater,white background,

简单的提示词,默认是生成卡通类型的图像:

再给加点料:

masterpiece,best quality,1girl,moyou,seductive smile,(Turtleneck_sweater_dress:1.5),(Thigh-high_boots:1.4),(Wide-brim_hat:1.3),(Autumn_foliage_background:1.3)

生成一张写实类的吧:

official art,Best quality,masterpiece,ultra high res,((photorealistic:1.4)),((deep Focus)),raw photo,extremely delicate,intricate details,best shadow,1girl,upper body,beautiful,cool,smallface,detailed face,((detailed very long hair)),(pale skin),((brown eyes)),deep shadow,look away,film grain,low key,soft lighting,poised poise,dramatic angles,geometric shapes,contrasts of light and shadow,high-tech backdrop,crisp lines

别的不说,细节绝对拉满。Asian girl 亚洲脸,能不能行?

有一说一,Flux 在细节处理上已经足够逼真,不过写实类的还得是垂类大模型~

官方体验地址,因为 GPU 资源有限,高峰期容易排队失败~

但这是一个开源模型,我们完全可以本地跑起来,接着就带着大家实操一番~

3. 本地部署

Flux.1 根据模型大小,分为三个版本:

  • Schnell:最快的模型。

  • Dev:在速度和质量之间提供平衡,并支持更多定制选项。

  • Flux.1 Pro:最强模型,模型不开源,只提供 API。

实测来看,开源最强,当之无愧!

唯一的缺点,就是模型参数量太大了开源的两个版本都有 23.8G,就这一点,就拦住了不少玩家。

不过话说回来,模型参数量小,且还能打的,至少现阶段是不现实的。

3.1 模型下载地址

项目地址:https://github.com/black-forest-labs/flux

模型首发在 Huggingface 上,不过已经有同学迁移到了阿里的 modelscope 上。考虑到国内的小伙伴访问 Huggingface 比较困难,我们这次直接从 modelscope 下载。

两个初始模型有 23.8G:

社区有小伙伴提供了量化版,体积小了一半,不过表现略差,不知道是不是我参数设置的原因,欢迎小伙伴们评论区交流。

附下载地址:

  • schnell:https://modelscope.cn/models/AI-ModelScope/FLUX.1-schnell/files
  • dev:https://modelscope.cn/models/AI-ModelScope/FLUX.1-dev/files
  • 量化版:https://modelscope.cn/models/AI-ModelScope/flux-fp8/files

!注意:即便是量化后的 11.9G 模型,跑起来也至少需要 16G 显存的消费级显卡。

如果你的显存不足,可以接着往下看👇

3.2 ModelScope 实战

本地部署,我们这次采用阿里云的 GPU 服务器进行演示,如果你有本地 GPU 主机,当然下面是实操也是通用的。

首先,前往 modelscope 首页注册一个账号,新用户是有 GPU 免费使用额度的,选择下方的 GPU 环境,点击启动,你就可以拥有一台 24G 显存的云主机。

Step1:下载 ComfyUI

实例启动后,打开一个终端,然后 git clone 下载 ComfyUI:

git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
pip install -r requirements.txt

Step2:下载模型

实例镜像中默认安装好了 modelscope 下载命令,运行下方指令,下载我们所需的模型:

# FLUX1-DEV
modelscope download --model=AI-ModelScope/FLUX.1-dev --local_dir ./models/unet/ flux1-dev.sft
modelscope download --model=AI-ModelScope/flux-fp8 --local_dir ./models/unet/ flux1-dev-fp8.safetensors# text encoder model
modelscope download --model=AI-ModelScope/flux_text_encoders --local_dir ./models/clip/ t5xxl_fp16.safetensors
modelscope download --model=AI-ModelScope/flux_text_encoders --local_dir ./models/clip/ clip_l.safetensors
modelscope download --model=AI-ModelScope/flux_text_encoders --local_dir ./models/clip/ t5xxl_fp8_e4m3fn.safetensors# vae
modelscope download --model=AI-ModelScope/FLUX.1-dev --local_dir ./models/vae/ ae.sft

给大家看下下载速度,300-400M/s,超快~

Downloading:  82%|███████████████████████████████████████████████████████████████████████████████████████████████▍                     | 18.1G/22.2G [00:54<00:11, 374MB/s]

如果你是在其他云主机 or 本地服务器上,需要首先安装 modelscope download 工具:

pip install modelscope

Step3:启动 ComfyUI

ComfyUI 提供了一键启动脚本,运行下方指令,即可打开一个 web 客户端:

python main.py

默认端口号是:http://127.0.0.1:8188

不过,modelscope 上的云主机是没有公网 IP 的,你在本地浏览器当然是打不开的,怎么搞?

你需要一个内网穿透工具~

有没有最便捷的方式,实现内网穿透?

当然,强推 cloudflared 👇

Step4:cloudflared 安装和使用

仓库:https://github.com/cloudflare/cloudflared
cloudflared 是啥?

海外云厂商 Cloudflare 提供的一个命令行工具,用于创建安全的隧道,以便将本地服务暴露到互联网。

首先下载最新版的 cloudflared Debian 软件包(.deb 文件),并使用 dpkg 工具直接安装,无需编译。

wget https://mirror.ghproxy.com/https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-amd64.debdpkg -i cloudflared-linux-amd64.deb

看到如下输出,则说明安装成功:

(正在读取数据库 ... 系统当前共安装有 83567 个文件和目录。)
准备解压 cloudflared-linux-amd64.deb  ...
正在解压 cloudflared (2024.6.1) 并覆盖 (2024.6.1) ...
正在设置 cloudflared (2024.6.1) ...

此外,还可以查看下cloudflared版本:

cloudflared -v
# 输出
cloudflared version 2024.6.1

由于 ComfyUI 的服务在 8188 端口上,所以我们用 cloudflared 开启一个监听隧道:

cloudflared tunnel --url http://127.0.0.1:8188

监听成功后,找到下面这个临时的 url:

打开浏览器看看吧:

大功告成,开始 ComfyUI 之旅吧~

Step5:愉快玩耍

首先,把 flux1-dev 模型的配置文件下载到本地:https://modelscope.oss-cn-beijing.aliyuncs.com/resource/flux1-dev-test.json

然后,点击 Load 加载配置文件:

最后,输入你想要生成的提示词,以及图片大小设置。点击 Queue Prompt 开始生成,流程中的高亮模块,说明正在加载模型:

我这边实测,1360 x 768 大小的图像,量化版本的模型大约占用 14G 显存,所以一张消费级显卡完全够用。

有一说一:ModelScope 的云端 GPU 环境跑模型还是很爽的,尤其是下载 ModelScope 上的模型,速度直接拉满;唯一的缺陷是,模型权重文件等无法持久保存,一旦断掉后,还得重头再来一般。

写在最后

本文实测了地表最强开源 AI 绘画模型,手把手教你从在线体验到本地部署。就算你没有土豪级显卡,也可以用云端 GPU 来玩耍。

不得不说,这波 AI 绘画的更新迭代,看得人眼花缭乱、热血沸腾!

不知道下一个惊喜又会是谁呢?让我们拭目以待~

关于开源 AI 大模型的文章,我打算做成一个专栏,目前已经收录了:

  • CogVideo 实测,智谱「清影」AI视频生成,全民免费,连 API 都开放了!
  • 全网刷屏的 LLaMa3.1,2分钟带你尝个鲜
  • SenseVoice 实测,阿里开源语音大模型,识别效果和效率优于 Whisper
  • EasyAnimate-v3 实测,阿里开源视频生成模型,5 分钟带你部署体验,支持高分辨率超长视频
  • 开源的语音合成项目-EdgeTTS,无需部署无需Key
  • 一文梳理ChatTTS的进阶用法,手把手带你实现个性化配音

后面会定期更新,感兴趣的小伙伴欢迎关注。


http://www.ppmy.cn/embedded/93736.html

相关文章

Docker学习概述:开启自动化运维之旅

目录 学习目标 为什么会出现Docker&#xff1f; 历史 作用 学习目标 Docker作为一个轻量级、可移植的容器化平台&#xff0c;它的学习目标主要集中在以下几个方面&#xff1a; 理解容器化的概念&#xff1a;掌握容器与虚拟机的区别&#xff0c;以及容器化带来的优势。掌握…

java学习记录

一、修改数据 1.当修改数据时&#xff0c;会先判断该属性是否存在或者是否为空串 <update id"editStaffItem">update staff<set><if testname!null and name!"">name#{name},</if><if test"salary!null">salary#…

代码随想录算法训练营Day35 | 01背包问题 | 416. 分割等和子集

今日任务 01背包问题 题目链接&#xff1a; https://kamacoder.com/problempage.php?pid1046题目描述&#xff1a; Code #include <iostream> #include <vector> #include <functional> #include <algorithm>using namespace std;int main(void)…

FFmpeg源码:av_init_packet、get_packet_defaults、av_packet_alloc函数分析

一、av_init_packet函数 av_init_packet函数定义在FFmpeg源码&#xff08;本文演示用的FFmpeg源码版本为7.0.1&#xff09;的源文件libavcodec/avpacket.c中&#xff1a; /*** Initialize optional fields of a packet with default values.** Note, this does not touch the…

LLVM理论篇之编译器结构

1、概述 编译器完成源程序到目标程序的翻译工作&#xff0c;这是一个复杂的整体过程。从概念上讲&#xff0c;一个编译程序的整体过程可以分为3个阶段&#xff0c;每个阶段将程序的一种语言表示形式转换成另一种语言表示形式&#xff0c;并且各个阶段在逻辑上是紧密相连的。典…

培训第二十二天(mysql数据库主从搭建)

上午 1、为mysql添加开机启动chkconfig [rootmysql1 ~]# chkconfig --list //列出系统服务在不同运行级别下的启动状态注&#xff1a;该输出结果只显示 SysV 服务&#xff0c;并不包含原生 systemd 服务。SysV 配置数据可能被原生 systemd 配置覆盖。 要列出 systemd 服务…

计算机网络ISO七层网络模型及TCP

思维导图&#xff08;通俗理解&#xff09; 首先&#xff0c;先用最通俗的话来描述ISO七层模型&#xff0c;思维导图结构如下&#xff1a; ISO七层网络模型概念 应用层&#xff08;Application Layer&#xff09;&#xff1a;应用层是OSI模型的最高层&#xff0c;直接与用户交…

[other][知识]在《赌客信条》一书中归纳为5句话

在《赌客信条》一书中&#xff0c;作者孙惟微将前景理论归纳为5句话&#xff1a; 1、“二鸟在林&#xff0c;不如一鸟在手”&#xff0c;在确定的收益和“赌一把”之间&#xff0c;多数人会选择确定的好处。所谓“见好就收&#xff0c;落袋为安。称之为“确定效应”。 …