如果你问我:“AI 为什么会对绘画圈影响很大?”
我会回答你:“AI 的强大之处不仅是它能够在短时间内生成大量的图像,还能实现精准的图像控制。当多样的 AI 图像模型结合控图技术,你就能实现图像转绘、面部迁移等效果,且生产效率高、图像质量优。而人工的生产模式是难以做到保证质量的同时,还能高效生产。因为人类是会疲惫的、会灵感枯竭的,而 AI 却不会,只要不断电,它就如永动机般,一直运行下去......”
如果你还不清楚 AI 图像转绘和面部迁移是如何做的,那这篇文章绝对值得你一读。我将通过实操案例,一次给你讲明白!
先来一张“保时米”的图像转绘。(原图为小米 MX 11 概念车图,与小米 SU 7 外观设计类似,借鉴了保时捷的设计。嗯..... 真的,如果生产出来长这样,我可能会心动!)
本案例使用的是 Midjourney 图像编辑器功能,如果你是年费订阅会员或者是过往订阅过 12 个月的账号就能使用该功能。(如果你没有这个功能也没事,后面可以用其他 AI 工具平替,让我们先看完这个案例。)
简单的 5 步操作,就可以完成图像转绘的效果,而你也只需要输入关键词,比如我这里写的是:
The white SUV car, the background is the blue sky and white cloud racing track, using the style of oil painting, high resolution, high detail, high quality appearance.
白色的 SUV 汽车,背景为蓝天白云赛车道,采用油画风格,高分辨率、高细节、高品质的外观。
生成后你会得到 4 张图,因为 MJ 具有很强的随机性,这时你需要挑选一张还不错的图片。局部有瑕疵没关系,整体图片效果有了就行。
这里 4 步简单的操作,就可以修复局部区域。还记得 PS 的 AI 功能“创成式填充”吗?MJ 的这个功能与它类似,这下 PS 我都不用打开了,所有修复操作都在 MJ 中解决!
最后一步,在生成的 4 张效果图中,挑选一张你满意的图片,然后点击“Upscale to Gallery”进行图像高清放大。
Midjourney 的这个新玩意真的很好用,他们将 Controlnet 技术和 PS 的创成式填充结合起来,再借助 Midjourney 强大的图像生成能力(V6 版本模型),把用户在操作方面的学习成本降至最低,这才是我想要的 AI 工具啊!
当然它的缺点也很明显,Midjourney 对文字的理解能力不足(略低于 Flux、Ideogram、SD 3.5 等模型)。其次在控图方面,也不如 StableDiffusion 自由可控,现在的解决方案之一就是多抽图。好消息是,Midjourney V7 模型似乎有消息了,应该离上线时间也快了。
如果 Midjourney 的图像编辑器你用不了,那即梦 AI 会是你不错的选择。
先来玩个马斯克换脸的效果,真的很像曾经的“叔圈顶流”吴秀波啊,这是为啥......
进入即梦 AI 中,首页大 Banner 就可以看到 AI 作图功能。
先将基础的生图参数及关键词设置好,这组关键词为:
被紫罗兰包围的大叔,极简,解构,仰视远景,宝丽来效果,人文,鲜血,人像摄影,艺术,优雅,磨砂质感,胶片,弥散光学,优雅动态角度,高级感,淡雅简约,故事感
重点来了,点击“导入参考图”,上传马斯克的帅照,然后选择“人物长相”。这一步是让 AI 学习人物的面部特征。
生成后,你就会得到 4 张马斯克的帅照!真的挺像的,所以你可以用自己的照片生成一套写真集,你需要控制的也仅仅是关键词而已。
再来个进阶版的,面部迁移结合风格转绘完成人物次元转换的效果。
我用这张在某真蓝拍的人物照进行演示。
先输入人物描述的关键词,然后选择最新的 2.0 模型以及其他参数,都比较简单,这一步不多说明。关键词为:
亚洲男孩,二次元插画风格,宫崎骏画风,穿黑色 t 恤,黑色头发,单眼皮,灰色背景。
到这一步,我们一共需要设置 3 个控制图片的参数,分别是人物长相、人物轮廓、人物姿势,对应的控制的是人物面部、人物轮廓以及人物骨骼姿势。
最后生成的效果就会与原图人物非常的相似,当然还是会出现与 MJ 相似的问题,生图效果并不是很稳定,解决方案依旧是多刷图。
所以你会发现,即梦 AI 这款软件是融合了多种 Controlnet 模型技术,并且他们将这些选择交给了用户(比如人物姿势识别、面部识别等)。使得它会比 Midjourney 在控图上,选择性更多一些。但是,它在图像生成效果方面,与 Midjourney 模型还是有一定的差距。
还记得今年五一期间,爆火的粘土滤镜特效吗,这同样是用到了图像转绘的 AI 技术。而且,用 StableDiffusion 操作非常的简单。(以下原图是优设 AI 俱乐部的地鼠同学,用 AI 将我的头像进行了二创,真丫的帅气!)
总结下生图思路:使用粘土风格的大模型,然后用图生图功能进行重绘,就这两个重点,完事~
下面我来教你具体如何做:
图像大模型:ReminiClay 黏土风_SDXL
大模型决定着最终的图像效果,所以大模型无比重要!
在 WebUI 中,使用“WD1.4 标签器”功能,进行图像关键词反推,所以关键词你也不用操心,让 AI 帮你写!
接着,进入到图生图功能区,输入正向关键词,上传需要转绘的原图。负面关键词不多说了,往期的教程文章都有说明。
其他相关生图参数基本上没怎么动,你可以按照我的参数抄作业。唯一要注意的就是,图像的宽高一定得与原图一致,不然 AI 会进行裁剪/拉伸,纪律性强一点,把这点记牢了!
其次是图像得重绘幅度,0.5 是个平均值。高于 0.5,生成效果与原图越不像。低于 0.5,与原图越像,但是参数太低的话,AI 转绘的效果会不怎么明显。所以你选择在 0.5 数值上下浮动,大致不会出现问题。
最后点击生成,你就会得到一张泥土滤镜风格的图像。因为 SDXL 模型基础生图的质量就比较高,所以这里就不需要进行高清放大处理。
来点进阶的,这个案例我们用 Controlnet 进行人物面部迁移。
我们首先需要准备两张素材图,分别是需要人物原图(Angelababy-杨颖-1),和面部朝向图(图-2)。
图像大模型:AWPortrait XL
因为我们需要对写实人物进行换脸操作,所以大模型也必须用写实模型。并且我们这次的操作必须用 SDXL 版本模型,因为后面的 InstantID 模型仅支持 XL 版本。
来到 WebUI 界面中,我们先用 WD1.4 标签器生成关键词。上传人物面部朝向图,得到下列关键词:
1girl, solo, long hair, looking at viewer, realistic, grey background, simple background, red lips, black hair, upper body, lips, black eyes, closed mouth, makeup, lipstick
然后切换文生图功能,将大模型、正反向关键词及相关参数设置好。需要注意的是,生图尺寸比例需要与素材图一致!
到这一步就很关键了,我们需要使用两个 Controlnet 进行控制,而且都是用的 InstantID 模型。
第一个 Controlnet 是让 AI 学习人物的面部特征,第二个 Controlnet 是控制人物面部的朝向。也就是说,最终生成的图像效果是将图像 1 的面部迁移到图像 2 的姿势中。
注意!这两个 Controlnet 的 InstantID 预处理器和模型是不一样的,千万注意,别看叉了。
说实话,我觉得还挺像的,仔细对比人物面部特征后,发现都对的上。然后我感觉得严谨点(感觉会被喷),于是我找了张 Angelababy 的正面照再次对比,嗯..... 确实很像!
人物换脸搞定!如果你需要将图像进行转绘,那么你可以接着往下看:
思路是,将选中的图片发送至图生图,然后切换一个动漫大模型,通过 Controlnet 中的边缘检测模型控制人物。
图像大模型:AWPainting(这是我最喜欢的一个动漫模型,打 Call!)
在文生图中将选中的图片发送图生图后,相关生图参数都会复制过来。如果你是手动在图生图中上传的,需要将上述文生图设置的生图参数重新设置一遍,保持一致即可。
我们在图生图中主要控制两个参数,分别是正向提示词和图片权重。
正向提示词代表着你需要生成的图像效果是什么样的,比如我的提示词是:
album photo,a mature woman,Black eyes, Black long hair, Red mouth,wearing a white shirt suit, deep solid color pattern background,stars,highly saturated color scheme,mysterious atmosphere,portrait headshot,
相册照片,一个成熟的女人,黑色的眼睛,黑色的长发,红色的嘴巴,穿着白色的衬衫套装,深纯色图案背景,星星,高度饱和的配色,神秘的气氛,肖像大头照,
图片权重前面有解释过,这里不重复了。我在生成时,希望 AI 参与效果生成多一些,所以我将权重设置为 0.7。
为什么我会将权重设置为 0.7,而不会担心它与原图不像呢?
因为下面我设置了 Controlnet,用到的是 SoftEdge 预处理器和模型,如果你想让边缘控制更强一些,你也可以用 Canny 模型。
最后,参数设置好之后,点击生成就得到了一张次元转绘的图片效果。看似步骤很多很复杂,其实操作很简单。希望你在看完这个案例后,能动手试一试。
SatableDiffusion 的优势在于,它拥有极高的自由度,你可以在 WebUI 中自由搭配大模型、Lora 模型,来决定图像的生成风格。并且你也可以自由搭配不同的 Controlnet 模型,来控制图像中的人物/其他主体。还有超级多的插件可以免费使用,因为 SatableDiffusion 本身就是一个开源产品。
随之而来的是,因为 SatableDiffusion 足够自由、足够开放,它的学习难度也会很大。但我还是建议你学习它,因为目前市面上几乎所有的 AI 生图工具所拥有的技术,它全有!当你学会 SatableDiffusion 后,会发现你再去使用其他 AI 生图工具时,简直就是降维打击。
因为本篇文章是围绕着优设 AI 俱乐部,举办的第 11 期主题挑战活动「真人转手绘插画」来分享的教程。其主要目的是帮助参与活动的会员进一步学会 AI 转绘工作流,我们先来看看会员们所创作的作品吧:
本期主题挑战的前三名学员分别是地鼠、小苹果、呦~柚。并由专业的老师们进行作品点评,恭喜三位同学!
当然其他同学的参赛作品也同样优秀,由于作品较多(仅展示部分作品),就不一一点评了。当然也欢迎观看本篇文章的你进行点评,可以在评论区留言。
我们的主题挑战均配备奖品,前三名获奖学员将获得积分。而积分可以兑换星球门票、AI 课程、现金红包、Midjourney 会员等等。通过学+练+评+奖的方式,帮助会员们提升 AI 实战经验,积累 AI 设计作品。
而主题挑战只是优设 AI 俱乐部的权益之一,我们的俱乐部一共有 12 大会员权益。涵盖主流 AI 工具学习手册、热门 AI 提示词、AI 商业案例、AI 工具库、AI 实战特训营等等。并且,我们每天都会在俱乐部中更新最新的 AI 行业资讯,帮助会员们打破信息差,第一时间了解 AI 行业动态。
最后,本篇文章主要是给粉丝们分享 AI 转绘教程,以及复盘俱乐部学员们的作品,关于优设 AI 俱乐部就不过多介绍了,如果你想详细了解并加入《优设 AI 俱乐部》,可以点击链接: https://aiclub.uisdc.com/
感谢观看至此,如果你喜欢今天的内容,并且觉得它对你有所启发或帮助,随手给我点个赞、在看,或转发到朋友圈吧,如果想要不错过我的每一次更新,可以将我的公众号设为星标~朋友们,下次再会。
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。
热评 wimp