经济之家-> 产业 >

AI这样把NB写在脸上,它在玩一种很新的艺术

发布时间:2023-07-17 11:17来源:IT之家阅读量:7856   

都说 AI 绘画来势汹汹,但论创意,还是人类玩得花。

图源:抖音账号 麦橘 MAJIC

赶紧按下手机截图键,看看原图和缩略图的对比,你就能窥破玄机:

是的没错!

图源:抖音账号 麦橘 MAJIC

以及这位把 AI“穿”在身上的的红毛衣小姐姐:

图源:抖音账号 麦橘 MAJIC

还有网友给了别的“认字”秘诀,比如摘下你的近视眼镜:

呼声最高的评论有两种,一种是“牛哇牛哇”的感叹,另一种是嗷嗷待哺的“蹲教程”。

所以,这些又牛又 diao 的图,是怎么做出来的?

ControlNet 又立大功

Stable Diffusion+ControlNet。

作为最火爆的两个 AI 绘画工具之一,Stable Diffusion 已经风靡一年,热度不减,已经被大伙儿熟知和玩坏了。

所以今天想重点介绍一下 ControlNet,这家伙是 Stable Diffusion 的一个 AI 插件。

今年春天,ControlNet 因为能够搞定 AI 原本无法控制的手部细节、整体架构,一炮而红,被网友们戏称为“AI 绘画细节控制大师”。

Stable Diffusion 根据提示词生成图像显然太过随机,ControlNet 提供的功能,恰好是一种更精确地限制图像生成范围的办法。

究其原理,本质上是给予训练扩散模型增加一个额外的输入,从而控制它生成的细节。

“额外的输入”可以是各种类型的,包括草图、边缘图像、语义分割图像、人体关键点特征、霍夫变换检测直线、深度图、人体骨骼等。

Stable Diffusion 搭配 ControlNet 的整个过程中,第一步是预处理器生成图像,第二步让这些图像经过 ControlNet 模型的处理,第三步时,将图像输入到 Stable Diffusion 中,生成最后展现在用户面前的版本。

单说 ControlNet 的整体思路,就是先复制一遍扩散模型的权重,得到一个可训练副本。

而且就算数据量很少 —— 哪怕少于 5 万张 —— 模型经过训练后,条件控制生成的效果也贼拉棒。

比如 diao 哥和牛啤姐的那几张图中,它主要起到的作用,就是负责确保文字作为光影、衣服图案等,“放进”了图像中。

图源:抖音账号 麦橘 MAJIC

抖音原作者表示,最后还用上了 ControlNet tile 模型,这个模型主要负责增加描绘的细节,并且保证在增加降噪强度时,原图的构图也不会被改变。

也有 AI 爱好者“另辟蹊径”,表示要得到如图效果,可以用上 ControlNetbrightness 模型。

这个模型的作用,是控制深度信息,对稳定扩散进行亮度控制,即允许用户对灰度图像着色,或对生成的图像重新着色。

不仅有动漫风,还有 3D 立体、水墨风、浮世绘风、水彩风、PCB 风格……

同样在 Reddit 等平台上引起“哇”声一片:

感兴趣的旁友们,可以戳量子位之前的文章一探究竟《ControlNet 新玩法爆火》。

AI 大手子分享教程

光影效果爆火之后,推特上很快有 AI 大手子站出来表示愿意分享手把手教程。

大概思路非常简单,分为 3 个重要步骤:

第一步,安装 Stable Diffusion 和 ControlNet;

第二步,在 Stable Diffusion 中进行常规的文生图步骤;

第三步,启用 ControlNet,重点调整 Control Weight 和 Ending Control Step 两个参数。

运用这个方法,不仅可以完成人像和光影文字的融合,城市夜景什么的,也妥妥的。

大佬还在教程里温馨提示了一下:

写提示词时,尽量不要用一些例如特写人像之类的提示词,不然文字或者图案就会盖在人脸上,很难看.

图源微博、抖音网友,为 AI 生成作品

你说说,这效果,这动手能力,谁看了不说一句 NB 呢?

如果你也动手 NB 了一下,欢迎在围脖平台 量子位,投喂你的最终成品和我们互动嗷~

广告声明:文内含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。

?