前言
Stability AI 很高兴地宣布推出 Stable Diffusion Reimagine!我们邀请用户通过 Stable Diffusion 尝试图像并“重新构想”他们的设计。 Stable Diffusion Reimagine 是一种新的 Clipdrop 工具,它允许用户无限制地生成单个图像的多个变体。无需复杂的提示:用户只需将图像上传到算法中即可创建任意数量的变体。 在下面的示例中,左上角的图像是输入该工具的原始文件,而其他图像是受原始文件启发的“重新构想”的作品。 您的卧室可以通过点击一个按钮来改变:
你也可以玩转时尚造型:
Clipdrop 还具有升级器功能,允许用户上传小图像并生成至少两倍细节级别的图像:
用法和限制
Stable Diffusion Reimagine 不会重新创建由原始输入驱动的图像。取而代之的是,Stable Diffusion Reimagine 创造了受原作启发的新图像。
这项技术有已知的局限性:它可以根据某些图像激发惊人的结果,而对其他图像产生不太令人印象深刻的结果。
我们在模型中安装了一个过滤器来阻止不适当的请求,但过滤器有时会屈服于误报或误报。
该模型有时也可能产生异常结果或表现出有偏见的行为。我们渴望收集用户反馈,以帮助我们正在进行的改进该系统和减轻这些偏见的工作。
Stable Diffusion Reimagine 基于 stability.ai 创建的新算法。经典的文本到图像稳定扩散模型被训练为以文本输入为条件。
此版本用图像编码器替换了原始文本编码器。图像不是基于文本输入生成图像,而是从图像生成图像。在编码器通过算法后,添加一些噪声以产生变化。
这种方法会生成具有不同细节和构图的外观相似的图像。与图像到图像算法不同,源图像首先被完全编码。这意味着生成器不使用来自原始图像的单个像素。
Stable Diffusion Reimagine 的模型即将开源在:
https://github.com/Stability-AI/stablediffusion/
不难看出,Stable Diffusion Reimagine大概率是将CLIP text encoder换成了CLIP image
encoder,类似DALLE2那样。
这里直接将该软件分享出来给大家吧~
写在最后
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。