本文主要分为两部分:
- 软件篇(如何搭建 Stable Diffusion 环境)
- 实战篇(如何完成一张立绘)
软件部分会为大家推荐一些 B 站优秀的 UP 主的教程,讲解的十分详细。
本文会先带大家了解模型、VAE 和 LORA 这三个概念。而实战部分会以出草图 - 大量 AI 出图 - 局部修改(AI 迭代)- 再次修改,这样一个过程。
AI角色相关干货:
前期需要准备:Stable Diffusion 本地包、Stable Diffusion 模型、VAE 和 LORA。
1. Stable Diffusion 本地包
这里推荐秋叶的本地的 Stable Diffusion 包:
2. Stable Diffusion 模型如何下载
https://civitai.com(点右上角眼睛可以开关18+模式 )大多数模型都可以在 C 站找到。
3. 模型如何选择
C 站的好处是可以很直接看到效果图,网友的返图。甚至可以点开图片右下角的叹号,可以看到该图的大部分参数,可以直接复制到 Stable Diffusion 使用,大大方便了我们的作图流程。
根据原图反向寻找模型。
打开 Stable Diffusion,进入图片信息中,将原图拖入,在右侧就可以看到图片的全部信息。
蓝框是提示词,黄框是反向提示词,红框就是我们需要的模型哈希值(即模型编号)将这个编号输入到 C 站的搜索框中,即可根据原图反向找到模型。
4. 模型 VAE
VAE 用于增强画面的颜色信息,如果你感觉画面发灰,大多是因为 VAE 的问题导致。大多数模型都会提供 VAE 的下载。(如下图红框)若没有 VAE 的显示,一般使用默认的 { final-prune.vae }
5. LORA 是什么
LORA 是用于稳定你的画面元素,例如想让画面出现特定的人物,武器,穿着等,都需要使用相对于的 LORA。可以把 LORA 理解为稳定你画面的某种元素。
1. 草图绘制
这里要注意的点是把你需要的动作和造型尽量勾勒清楚,并且线条要足够深度和足够清晰,不然 Stable Diffusion 是识别不出来的。这里我们可以通过 PS 中的色阶选项将线稿进行拉深。
2. 关键词
关键词分为正面,负面两种关键词。正面关键词内容我们可以分为头部,上半身,四肢等逐一表述,较为清晰。把想要的动作(比如手拿着剑),衣服的材质颜色等一一说明,重要内容可以加上括号强调权重。
最后加上一些画面以及风格的补充词(独奏,最高质量,逼真等)。因为模型已经确定了风格,我们不需要加过多的一些风格上的描述词。
而反面关键词则是你不想画面出现的内容,这里分享一组比较万能的负面关键词:(bad-artist:1.0), (loli:1.2), (worst quality, low quality:1.4), (bad_prompt_version2:0.8), bad-hands-5,lowres, bad anatomy, bad hands, ((text)), (watermark), error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, ((username)), blurry, (extra limbs),
3. 生成设置
我们将生成好的描述词复制进去,点击 LOAR 模型,点选想要的模型,在正面描述词里就会自动生成一条关于 LORA 的关键词,将词组最后的数字 1 改为 0.5,降低其权重。
左上方菜单下拉选择需要的模型,本次使用的是国风三大模型,采样器选择 DPM++ Stable DiffusionE Karras,采用步数选择 30,生成批次选择 6
4. Control Net 设置及应用
页面滑动至下方点选 Control Net 选项,将线稿拖入其中,点击启用,点选后面的 Pixel Penfect(像素完美),再选择 Allow Preivew,选择 Lineart 这条比较长的选项和相对应的模型。
在 Stable Diffusion 新版本中这里会有直接可以选择的选项,直接选择 Lineart 的选项就好。(注:这里需要下载相对于的 Control Net 的模型)
,点击爆炸小图标,我们就可以看到相对于的生成的线稿了。点击预览图下方的小箭头,线稿的尺寸分辨率就相对于配置上去了。
5. 批量生成
点击生成开始批量运算。这里我尝试了一下不同的大模型来生成不同的风格。
这里我们可以看到,通过 Control Net 的 Lineart,可以很好的识别到我们草图的动作姿势和衣服造型等,我们可以选择一张较为满意的进行下一步操作。
注:如果电脑配置比较低,可以先将草图压缩下尺寸再拉进来识别线稿,这一步我们主要还是找整体画面的大感觉,对于画面模糊或者局部的 BUG 不用特别注意,会在下面的操作中进行细化补救。
6. 图生图
接下来选择一张我们相对比较满意的图,点击预览下方的图生图按钮进入,进入后可以看到我们相对应的参数都已经自动配置上来了,这里我们需要再做的是重新选择我们的采样器 DPM++ Stable DiffusionE Karras,接着将高度和宽度放大,重绘幅度建议控制在 0.4,采样步数可以适当提高一些,30-50 左右,点击生成,进行下一步的精细化生成。
注:如果电脑配置比较低,高度和宽度就不要一次拉太高。
这里我将画面精细化生成后,又在 PS 中调整了一下并裁切了一些需要更多的细节的地方再进行放大重新生成。
7. 细化
最后我们可以重点调整下脸部刻画,这里推荐一个插件 Face Editor,他可以有效修缮脸部崩坏,头发奇怪等。然后再在 PS 中将 BUG 优化。
例如手部结构出错等,我们可以顺着 AI 生成的图像进行优化,或者制作深度图再次进入 AI 进一步生成,这里因人而异,采取最适合自己的方法就好。并调整下画面光影和整体氛围,因为这里只是作为一个小案例,就大概修缮了一下。
可以看到,整体动作和衣服相对于草图的还原度还是比较高的。通过 Control Net 的 Lineart,我们可以精准控制画面人物的动态衣服,使其更符合我们的需求。
以上就是如何快速通过 Stable Diffusion 生成角色固定姿势,如果你有其他快速方法,欢迎在评论区留言。
欢迎关注作者微信公众号:「ASAK」
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。
发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
AI绘画创意与实战
已累计诞生 655 位幸运星
发表评论 已发布4条
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓