彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

我们热衷探索 Stable Diffusion 是因为它的开源生态与极大的自由度和控制力。尽管 Stable Diffusion 在图像控制精度上远超 Midjourney,但其复杂操作流程总让创作者望而却步。

然而,最近情况出现了转机。开年以来,DeepSeek 因其最新发布的 R1 推理模型极其强大的推理认知能力席卷全球科技圈——它不仅登顶中美应用商店下载Top榜,更被黑神话悟空的制作人冯骥称为“国运级科技成果”。

我们看了网上各位大神们的文章,发现他们利用 DeepSeek 强大的认知能力,不断将 Stable Diffusion 的操作门槛降低。站在大佬们的肩膀上,我们进一步尝试并成功借助 DeepSeek 的「联网+推理」能力让 Stable Diffusion 中布置 ComfyUI 工作流 和 炼制 LoRA 模型两大环节变得简单而高效。

更多DeepSeek运用干货:

一、速通 ComfyUI 工作流

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

ComfyUI 节点繁多,连接复杂。选择合适的节点并了解其连接与设置方法需要大量相关知识,这无疑极大抬高了 ComfyUI 的使用门槛。并且由于各节点,插件更新频率不统一,且迭代较快,使得教程过时的速度很快,数月前新推出的教程,现在就可能由于节点更新而无法完全适配。因此我们可以利用 DeepSeek 的信息检索能力让他快速辅助我们搭建出合理的工作流。

目前 DeepSeek 大模型已接入多个平台,我们可以选择任意一个支持联网搜索的平台进行使用。

目前,主流的工作流创建有两种方法,一种是直接使用现成的工作流 json 文件进行导入,另一种是手动连接节点。我们在多次尝试后发现 DeepSeek 并不能写出完整可用的工作流 json 代码。这可能是因为工作流的代码规范复杂,且网络上可参考的代码较少,导致生成代码质量较低,格式不规范。

因此我们通过让 DeepSeek 描述节点连接方法的方式辅助我们进行工作流的手动搭建。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

对于指令,我们按照 “任务+要求+补充” 的结构化方法进行描述,如果需要搭建的流程是基于特定环境或情景,也可以加上对指令背景的描述。

因此我们给出如下指令:

“我要在 ComfyUI 上搭建文生图工作流,让我可以输入提示词生成对应描述的图片(任务),并且详细说明每个节点的各接口是否空置或与哪个节点连接(要求),并且详细说明连接完毕后这个工作流如何使用,可以如何进行调节(补充)”

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

可以看到 DeepSeek 给出了一个整体的节点连接顺序,并且对每个节点该如何连接进行了详细描述

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

接下来我们在 liblib 去尝试进行工作流搭建,首先我们按照 DeepSeek 的描述,搜索“Checkpoint Loader”,添加对应节点,并按照描述进行连接。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

最后我们输入正面和负面提示词进行测试,可以看到,DeepSeek 完整实现了文生图的一个工作流的搭建,并且可以正常运行并生成图片,极大降低了新手的入门门槛。

二、高效打标签,速通 LoRA 模型炼制

之前,在炼制 LoRA 模型的时候,所花费时间最多的部分就是给图片打标签的部分。官方自带的打标签算法大部分时候在主体物非人物的情况下,出来的标签经常和主体图相差十万八千里。因此,这大多数这种情况需要我们采用手动标注的方式。而底模(Checkpoint)如果迭代了,那就意味着我几乎需要把所有的流程重新走一遍。带来的重复工作量可想而知。

而这一切在飞书多维表格接入 DeepSeek 改变了。前两天看了卡兹克大佬的文章 《接入了 DeepSeek 后的飞书,强大到我有点陌生》,里面提到了借助飞书的多维表格,再结合 DeepSeek 的推理能力可以批量输出内容。这里我就联想到了,是否可以借助这样的方式,将打标签这一环节变得简单。

我们做的这个模版就在这里,大家可以自行使用哈:
https://acn3dfl2e25a.feishu.cn/base/AfDAbOK2bap0oqs9JcUcF7tPnTd?from=from_copylink

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

基本就是在第二列上传需要打标签的图片。之后,在表头为「描述」的列中,借助字节的「AI 图片理解」模块识别图片的内容并进行描述。之后,在「xx 提示词」的列中,使用「DeepSeek 大模型」并要求其根据「描述」列中给出的描述内容,生成提示词。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

这里需要注意的是,在写描述需求的时候,最好加上「生成英文提示词」,如果没有英文的话,大概率会有几个提示词给出中文的,虽然可以点击进行翻译,但也是非常麻烦的,目前多维表格针对由 DeepSeek 生成的内容是不支持修改的,哪怕只是改动翻译。

彻底解放双手!如何用DeepSeek结合Stable Diffusion快速出图?

完成后,将提示词复制/导出,并以数据集的形式导入炼丹炉就好啦,具体炼丹详情可见这一篇《只要三分钟,让你快速掌握 SD-LoRA 模型炼制的基础知识》

结尾

这次将 Stable Diffusion 和 DeepSeek 的成功结合,确实让我们感到无比振奋。过去,AI 在设计领域的应用往往是碎片化的,需要人工在不同工具之间来回切换和协调。而这次尝试,仿佛为我们打开了一扇新的大门,预示着 AI 全流程设计时代的已悄然降临。

这让我想起了一个关于荷花的故事:在一个空池塘里,荷花每天以翻倍的速度生长,第一天 1 朵,第二天 2 朵,第三天 4 朵……直到第30天,池塘被完全填满。那么,池塘被填满一半是在哪一天呢?答案是第29天。

这个故事似乎也在暗示着我们当下的处境——AI技术的进步并非一蹴而就,而是以指数级的速度悄然积累。

或许,我们正站在第 29 天的门槛上,眼前的一切只是冰山一角。

真正的爆发,可能就在不远处。

收藏 20
点赞 47

复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。