深度拆解!这可能是全网最详细的AI视频创作教程

爆肝 1 个月后,我终于梳理出一套系统化的 AI 视频创作工作流了!!!

并且,在经历过数十次工作流重构和工具组合测试后,也终于有自信写成教程分享给大家。

本文将深度拆解 AI 视频创作工作流的 7 大步骤,涵盖从脚本生成、图像制作到视频合成的全链条实操,涉及三大 AI 领域(文本/图像/视频)的工具协同,非常干(肝)!

更多AI视频干货:

先来看看本文拆解的 AI 视频案例:

当视频在手机上无法加载,可前往PC查看。

下面,就由我将这套工作流传授给大家。

步骤一:AI 生成创意脚本

文本生成类的 AIGC 工具有很多选择,比如 Deepseek、ChatGPT、Claude、Kimi、Grok 等等。
而我在计划创作这条视频时,市面上“闹”的最凶的 AI 大模型是老马发布的 Grok 3 模型(他说是地球上最聪明的人工智能)。

深度拆解!这可能是全网最详细的AI视频创作教程

所以,理所当然的,这条视频的创意脚本使用的是 Grok 3 模型。

地址在这: https://x.ai/

作为地球上“最聪明的”人工智能,在与它对话时,你不需要写多么复杂的提示词,只需要描述清楚你的需求以及它的任务即可。

需求:我要做一条 AI 创意短片,内容是 xxx
任务:帮我写下创意脚本,9 个分镜。

那么完整的提示词就是:“我需要做一条 AI 创意短片,内容是“小米 Su7 Ultra、薯队长(小红书 IP 吉祥物)、冬季场景、春季场景、上海东方明珠塔",我需要你为我写下这条短片的创意脚本,大概 9 个分镜。”

深度拆解!这可能是全网最详细的AI视频创作教程

再唠一句,理论上,你与 AI 对话时,需求描述的越详细,AI 回复的就会越精准。
但在创意这件事情上,谁一开始就有非常明确的需求呢?

那我们可以先定一个大方向,让 AI 先自行发挥,然后再与它进行多轮对话。

就相当于是,你与 AI 激烈的讨论如何写这条创意视频方案,而不是直接让它帮你出方案。在讨论时,我建议你将 AI 想象成你的同事(领导或下属)、你的老师。

Grok 3 的 DeepSearch 能力确实非常强悍,可以看到其搜索思考的过程,非常详细的展示在你面前。

深度拆解!这可能是全网最详细的AI视频创作教程

输出的分镜脚本内容:

深度拆解!这可能是全网最详细的AI视频创作教程

Grok 3 输出的分镜内容其实没什么特别的亮点,它所输出的脚本,其他 AI 大模型也能做到。
但,它会给你一份调研分析方案,这就很离谱了。就如果你是一名领导,当你的属下给你这份方案时,你会不会拍手叫好?

放出来,给各位看看:

深度拆解!这可能是全网最详细的AI视频创作教程

到这就打住了,本篇文章是拆解这条视频的创作流程,再写下去就成 Grok 3 模型的测评了,各位可以去自行体验。

回到创意脚本上来,如果 AI 所输出的结果你不满意,那么就进行多轮对话,直到你满意为止。

还是前面提到“需求+任务”的提示词写法:

比如“小米 SU7 Ultra 的外观是黄色,我希望前几个分镜是 小米 SU7 Ultra 在冬天雪地驰骋的场景,然后到第五个分镜,从冬季雪山转换到春季城市的场景。请你根据我的描述,优化这份创意脚本。”

深度拆解!这可能是全网最详细的AI视频创作教程

到这,AI 生成创意脚本的过程就写完了,最终我所选定的脚本方案就不展示出来了,比较长。

但这里要给大家强调的是,你脚本输出的好坏,是取决于 AI 大模型的能力,优秀的模型,输出的结果会更精准,更丰富。

如果需要我推荐的话,Deepseek、ChatGPT、Claude、Grok 都是不错的选择。

步骤二:AI 生成图像提示词

AI 大模型能生成创意脚本,自然也能生成 Prompt(提示词)。相比于处理复杂的创意脚本任务,AI 根据分镜描述或图片内容反推出 Prompt 的任务则会更简单些。

推荐使用 Kimi 来生成提示词,没别的原因。使用顺手,回复速度快。

地址: https://kimi.moonshot.cn/

比如,使用 Grok 的 DeepSearch 功能,给我一顿输出,但我其实只需要中英提示词。

深度拆解!这可能是全网最详细的AI视频创作教程

而使用 Kimi,就很简单,很纯粹。

深度拆解!这可能是全网最详细的AI视频创作教程

生成图像提示词的操作流程与第一个步骤类似,说清楚你的需求,需要它为你做什么。

步骤一我们已经使用 AI 生成了视频脚本,那么将脚本内容发送给 Kimi:

“我需要用 AIGC 工具创作一个短片。接下来,我会给你发送脚本内容。你需要根据我发送给你的信息,帮我生成 StableDiffusion 所需要的 Prompt,注意,生成英文提示词后,再给我一份中文翻译的提示词,方便我查看。 分镜一,冬季雪山驾驶。内容:航拍视角,黄色小米 SU7 Ultra 在雪山蜿蜒道路上行驶,周围是白雪皑皑的山景。”

深度拆解!这可能是全网最详细的AI视频创作教程

或者是,找一张与分镜脚本类似的图片作为参考,发送给 Kimi:

“我需要用 AIGC 工具创作一个短片。接下来,我会给你发送脚本内容,或者是给你上传图片。你需要根据我发送给你的信息,帮我生成 StableDiffusion 所需要的 Prompt,注意,生成英文提示词后,再给我一份中文翻译的提示词,方便我查看。 ”

深度拆解!这可能是全网最详细的AI视频创作教程

通常一轮对话是无法满足我们的需求,这时你可以继续与它对话,让它按照你的要求修改提示词。

比如:“这个分镜中的场景,我希望是在冬天,你要尽可能的描述这辆车在冬天的环境下行驶,要非常细节。”

深度拆解!这可能是全网最详细的AI视频创作教程

分镜一的提示词生成后,我们如何验证这组提示词的有效性呢?

答案是,提示词生成与图像生成同步进行(图像生成的步骤下章节讲)。

将输出的提示词放到 StableDiffusion 中,设置好生图的相关参数后,开始生图测试效果。

“aerial view, yellow Xiaomi SU7 Ultra driving on winding snowy mountain road, fresh snow covering the ground, snow-capped peaks towering in the distance, icy blue tones, winter atmosphere, snowflakes gently falling, car leaving tracks in the snow, steam rising from the car's exhaust, detailed vehicle design, reflective car windows showing the snowy landscape, mountain slopes with sparse coniferous trees, overcast sky with soft diffused light, highly detailed, realistic, 8k resolution”
航拍视角,黄色小米 SU7 Ultra 在蜿蜒的雪山道路上行驶,地面覆盖着新鲜的积雪,远处是高耸的雪山峰,带有冰冷的蓝色调,充满冬季氛围,雪花轻轻飘落,汽车在雪地上留下轨迹,从汽车排气管升起的蒸汽,车辆设计细节丰富,汽车窗户反射出雪景,山坡上稀疏的针叶树,阴天带有柔和的漫射光,高度详细,逼真,8k 分辨率

深度拆解!这可能是全网最详细的AI视频创作教程

在分镜一的画面中,我所需要的图像效果是能看到车的正面(车头),但这组提示词生成的结果却是背面(车尾)。

分析问题,在于提示词并未出现车头的描述,那么 AI 生图时就会出现随机性,比如偶尔能看到车头,偶尔是车尾。
所以,将问题发送给 Kimi,让它帮我们优化提示词。

比如:“分镜一的提示词需要修改,因为我在使用 SD 生图时,发现生成的结果,车是背对着镜头的。而我需要在这个分镜中,需要看到车头。请你根据我的描述,重新优化分镜一的提示词。”

深度拆解!这可能是全网最详细的AI视频创作教程

仔细看上面的提示词部分,Kimi 已经根据我的需求,添加了“正面视角展示汽车的前灯和格栅”提示词。

然后,根据修改后的提示词,再来生成图像,可以发现车头已经出现了,并且非常稳定。

深度拆解!这可能是全网最详细的AI视频创作教程

当分镜一提示词搞定后,继续让 Kimi 写下个分镜的提示词。

比如“很好,接下来,分镜二的内容是:画面聚焦车的尾部特写。同时我也上传了一张图片给你参考。你需要保持分镜一中对场景的描述,请帮我写出分镜二的提示词。”

深度拆解!这可能是全网最详细的AI视频创作教程

用 SD 生成图像测试提示词效果:

low-angle close-up view focusing on the rear of the yellow Xiaomi SU7 Ultra, driving along the winding snowy mountain road, snow-covered peaks and frozen landscape surrounding the road, winter atmosphere with gentle snowfall, detailed vehicle design highlighting the rear lights and spoiler, steam rising from the exhaust, tracks left in the fresh snow by the tires, reflective windows showing the snowy scenery, overcast sky with soft lighting, highly detailed, realistic, 8k resolution
低角度特写视角聚焦于黄色小米 SU7 Ultra 的尾部,沿蜿蜒的雪山道路行驶,道路两旁是冰雪覆盖的山峰和冰封的景观,冬季氛围中雪花轻轻飘落,突出显示尾灯和尾翼的车辆设计细节,从排气管升起的蒸汽,轮胎在新雪中留下的轨迹,车窗反射出雪景,阴天带有柔和的光线,高度详细,逼真,8k 分辨率

深度拆解!这可能是全网最详细的AI视频创作教程

效果非常不错,生成的效果图与我上传的图像内容基本一致,并且还保持了风格的一致性。

所以,当你重复上面的动作,就可以将分镜脚本全部转换为图像提示词。(这部分写了 1500 字,先点个赞再往下看吧,感谢!)

步骤三:AI 生成分镜图像

生成图像的 AIGC 工具有很多,比如 Midjourney、StableDiffusion、即梦 AI 等。
但如果你需要控制图像中的主体,那选择只有一个,StableDiffusion。

1. 前期构思

先来思考下,我们这条创意短片的主体是什么?

小米 SU7 Ultra 和小红书吉祥物(薯队长)。

如果你将小米 SU7 Ultra 的分镜提示词发送给 Midjourney,它能给你生成的效果是这样。

深度拆解!这可能是全网最详细的AI视频创作教程

像吗?只有颜色像,外观细节都不是小米 SU7 Ultra。

原因是,Midjourney 模型数据里,并没有小米 SU7 Ultra 的图像数据,自然也给你生成不了。

可能你会想着垫图来实现,那么看看垫图的效果。

深度拆解!这可能是全网最详细的AI视频创作教程

也不像,因为垫图是让 AI 去学习参考你上传图的信息,所生成的结果也不能与真实的小米 SU7 Ultra 一模一样。

那 StableDiffusion 的原生模型(如 Flux、SDXL、SD2.1 等)能生成小米 SU7 Ultra 吗?

回答是,也不能,因为 StableDiffusion 的原生模型也缺少小米 SU7 Ultra 的图像数据。

深度拆解!这可能是全网最详细的AI视频创作教程

所以,结果已经十分确定:“模型缺少小米 SU7 Ultra 的图像数据,而能解决小米 SU7 Ultra 的图像数据,并将这些数据放到图像模型中,就可以实现主体控制。”

在 StableDiffusion 开源生态中,正好就有一项技术能实现,那就是 Lora 模型。

通过一段话介绍下:

LoRA(Low-Rank Adaptation)模型是一种轻量化的深度学习微调技术,通过对大模型(如 Stable Diffusion)进行低秩矩阵分解,仅训练少量参数即可实现特定任务或风格的适配,显著降低计算资源需求。它在 AI 绘画领域广泛应用,可作为大模型的“补丁”,用于强化特定人物特征、艺术风格或细节,生成文件通常仅几十到几百 MB。相比完整重训练,LoRA 在模型体积与效果间取得平衡,既避免了大模型的高存储成本,又比纯文本嵌入(Textual Inversion)提供更丰富的信息。用户只需将 LoRA 模型与大模型结合使用,即可快速实现定制化图像生成。

在哩布 AI 上,就有模型作者基于小米 SU7 Ultra 的图像数据,训练了 Lora 模型。

模型地址: https://www.liblib.art/modelinfo/2cc6ac1a404d43b1ad3798ef0186acec?from=sd&versionUuid=beda18bd08974a3faf6e3e4a6abf1d8b

深度拆解!这可能是全网最详细的AI视频创作教程

同样,小红书吉祥物(薯队长)也有 Lora 模型。

模型地址: https://www.liblib.art/modelinfo/af0ed4695ca24a5f89f5818d3c6dad48?from=sd&versionUuid=18d2229333ca44ad9a86c3344b40024a

深度拆解!这可能是全网最详细的AI视频创作教程

当多个 Lora 模型同时作用在一张图时,小米 SU7 Ultra 和薯队长就能实现“跨次元”联动。

深度拆解!这可能是全网最详细的AI视频创作教程

当理解上面的内容后,接下来的生图步骤就会非常简单,三个字“文生图”。

2. 模型设置

在这条视频中,我总共调用了 5 种不同的 Lora 模型。

首先是主体 Lora:小米 SU7 Ultra 和薯队长。

深度拆解!这可能是全网最详细的AI视频创作教程

其次是场景 Lora:冬天场景和春天场景。

深度拆解!这可能是全网最详细的AI视频创作教程

最后是调节 Lora:画面质感、细节增强。

深度拆解!这可能是全网最详细的AI视频创作教程

以上这些 Lora 模型,都是基于 Flux 模型训练。所以,在 StableDiffusion 中,大模型需要选择 Flux 系列模型,推荐使用 F.1-dev-fp8 模型。

深度拆解!这可能是全网最详细的AI视频创作教程

3. 实操环节

生图的流程基本是固定的,只不过需要在不同的分镜中,切换合适的 Lora 模型控图,参数设置如下:

  1. 大模型:F.1-dev-fp8
  2. LoRA 模型:阿容容_F.1 大雪、SU7 Ultra 汽车主体控制、Flux Texture 质感增强器(权重参考作者推荐的数值)
  3. 基础参数:采样方法(Euler)、迭代步数(30)
  4. 尺寸设置:1536*864

小技巧:测试提示词生图时,不要开启高清修复。当提示词稳定后,批量生图,然后挑选一张你所满意的图片,固定Seed值进行高清修复。

深度拆解!这可能是全网最详细的AI视频创作教程

案例提示词:a bright yellow sports car speeding along a clear winter highway with a majestic snow-capped mountain range in the distance, the road's asphalt surface is well-maintained and clearly visible, showing distinct lane markings and a smooth texture despite the cold weather, the car's modern and aerodynamic design cutting through the crisp winter air, sharp LED headlights illuminating the path ahead, the vehicle kicking up a light spray of snow from its tires as it moves, snowflakes gently falling and swirling around the car, the surrounding landscape is a mix of snow-covered fields and patches of frost on the ground, with leafless trees standing tall along the roadside, their branches dusted with fresh snow, the sky is a clear, bright blue with a few wispy clouds, creating a striking contrast with the white snow and yellow car, high quality, ultra-detailed, 8k resolution, trending on ArtStation, cinematic composition, vibrant yet cool color palette, dramatic winter lighting, capturing the essence of a winter driving adventure with freedom and excitement.

深度拆解!这可能是全网最详细的AI视频创作教程

再来展示一个春季场景的分镜。

LoRA 模型:指鹿 AI_花开世界、SU7 Ultra 汽车主体控制、Flux Texture 质感增强器

深度拆解!这可能是全网最详细的AI视频创作教程

案例提示词:a bright yellow sports car slowly driving on an urban street,beside the road stands a grand classical building with multiple levels of arches and ornate detailing,its light-colored stone facade adorned with beautiful pink flowers,lush green leaves,and intricate vines,creating a garden aesthetic of spring,a towering vertical 9:16 poster is dramatically affixed to the building's wall,appearing as though it's being blown against the wall by a strong wind,the poster features an abstract design with bold black lines that create a sense of movement and depth,with splashes of bright red and deep blue that contrast sharply against a pale yellow background,the poster's surface has dynamic folds and waves,adding to the surreal and conceptual art effect,pedestrians in spring clothing walk along the traditional stone-paved street with white markings,the scene is set on a sunny spring day with a clear blue sky and warm sunlight casting soft shadows,falling petals and fluttering butterflies add to the romantic spring atmosphere,surrealism,rich detail,warm sunlight,8K resolution,realistic natural and architectural scenes,advanced aesthetic,super realistic,high quality,super clear.,

深度拆解!这可能是全网最详细的AI视频创作教程

其他的分镜图片操作步骤也一样,这里不重复列举。
但要注意,提示词生成和图片生成最好同步进行,抽象点理解就是“左手生成提示词,右手生成图片。”

在此处强调下,这些 Lora 模型仅供学习参考,大家不要随便拿去商用了。

步骤四:AI 图像修复

AI 直出图像,绝大部分情况下,都需要后期修复才可以使用(特别是涉及到商业场景)。
而修图的工具选择,我推荐使用 Photoshop 和 Midjourney 这两款软件结合。

修图方法一:简单场景

这张分镜的描述是“小米 SU7 Ultra 在城市道路上行驶,城市建筑墙上有一张巨大的海报。”

AI 只能给你生成不错的场景,但海报的内容却无法精准的生成。

ComfyUI 或许可以,但工作流会比较复杂。这时,使用 Photoshop 是最好的选择。

深度拆解!这可能是全网最详细的AI视频创作教程

关于怎么使用 Photoshop 修图我就不讲了,可以参考我在 PS 中修图的图层。

深度拆解!这可能是全网最详细的AI视频创作教程

修图方法二:复杂场景

各位花个 30s 时间,思考下,这张图如何实现。

深度拆解!这可能是全网最详细的AI视频创作教程

来拆解下我的步骤。

最开始,我是想用 StableDiffusion 直接生成,然后将画面描述丢给 Kimi 写提示词,但无论如何调整提示词,生图的效果始终没有达到我的预期,如图所示:

深度拆解!这可能是全网最详细的AI视频创作教程

出现的问题是:“飞机底下挂一张巨大的海报,并且出现在有小米 SU7 Ultra 的场景中,背景是上海东方明珠塔附近......”。想要的画面元素太多,导致 AI 无法把握重点,就会出现上述错乱的情况。

于是,我单独生成了“飞机底下挂一张巨大的海报”这一个画面。

虽然生成了 4 张图片,只有第一张的效果比较符合我的需求,但这已经足够了。

深度拆解!这可能是全网最详细的AI视频创作教程

然后使用 Photoshop,抠图、拼贴、海报合成,就搞定了。

深度拆解!这可能是全网最详细的AI视频创作教程

下面就是小米 SU7 Ultra 和东方明珠塔场景了,选定一张角度合适的图,然后将错乱的元素清楚掉。

注:如果你是正版 Photoshop,创成式填充会非常方便你修图。

深度拆解!这可能是全网最详细的AI视频创作教程

到这,将飞机与场景放在一张图中看下效果,还不错。

深度拆解!这可能是全网最详细的AI视频创作教程

但还未结束,画面的构图还存在问题,比如“飞机的位置应该在更高空,整个场景需要更宽阔。”

那么,我们要做的就是,扩图。

扩图的方法有很多,但本案例,我只说 Midjourney。

操作很简单,在 Midjourney 的“图像编辑器”功能中,上传图片,用 SatbleDiffusion 生图的那组提示词,调整下需要扩图的位置即可。

深度拆解!这可能是全网最详细的AI视频创作教程

最终扩图的结果,如图所示:

深度拆解!这可能是全网最详细的AI视频创作教程

但还有个问题,我们的城市场景效果是:“城市建筑上铺满了花、草”。

而 Midjourney 并不能还原 StableDiffusion 生成的效果,所以,扩展的图还需要在 StableDiffusion 中重新生成一下。

那么这一步的操作是:

选定一张 Midjourney 扩展的图,并在 PS 中将不需要的元素清除。

深度拆解!这可能是全网最详细的AI视频创作教程

然后在 StableDiffusion 中,使用 Controlnet 插件的 Canny 模型控图。

注意,在 Controlnet 中,控制生图效果的参数是“控制权重、起始步数、完结步数”。

深度拆解!这可能是全网最详细的AI视频创作教程

生成的效果如图所示:

深度拆解!这可能是全网最详细的AI视频创作教程

最后,Photoshop 合成,这张分镜就搞定了。

深度拆解!这可能是全网最详细的AI视频创作教程

那么,修图步骤的关键要点就拆解完了。

步骤五:AI 生成分镜视频

目前市面上比较好的 AI 视频模型有可灵 AI、即梦 AI、海螺 AI、Vidu 等。但在视频生成的稳定性上,可灵 AI 的表现会更强些。所以,本条片子的视频生成部分,交给可灵 AI 来完成。

这个步骤,也给大家拆解两个场景,分别是单镜头生成和双镜头(首尾帧)生成。

1. 单镜头生成

操作步骤:图生视频——选择可灵1.6模型——输入提示词——点击生成。

深度拆解!这可能是全网最详细的AI视频创作教程

视频生成的重点在提示词的描述上,在做这条视频时,我是通过 Grok 来写 AI 视频提示词的。

而前不久,可灵上线了 DeepSeek 提示词助手,你可以在其中描述你想表现的画面,如“一架飞机拖着一张巨大的海报飞向镜头,镜头画面最终被海报填满。” 它就会为你生成相应的提示词。

深度拆解!这可能是全网最详细的AI视频创作教程

接下来就很简单了,单镜头通过提示词描述,直接刷视频完事。

案例提示词:“固定镜头,一架飞机飞向镜头,同时拖着一面大横幅。随着飞机靠近,相机逐渐放大聚焦于横幅,横幅在画面中变大,直到完全填满屏幕。”

深度拆解!这可能是全网最详细的AI视频创作教程

案例提示词:“固定镜头,一辆亮黄色跑车高速行驶,从近处开始逐渐远去。”

深度拆解!这可能是全网最详细的AI视频创作教程

案例提示词:“低角度跟踪拍摄一辆亮黄色小米品牌跑车,带有黑色条纹和后翼,车头标有 01 号,行驶在雪山路上。镜头跟随,捕捉跑车高速行驶,车轮扬起雪花和冰块。背景是雪覆盖的山脉和松树,蓝天清澈,阳光明亮,雪地反射光线。”

深度拆解!这可能是全网最详细的AI视频创作教程

2. 首尾帧生成

再来讲下首尾帧生成,看下最终所实现的效果。

深度拆解!这可能是全网最详细的AI视频创作教程

这是一条从冬季转换为春季的镜头,所用到的功能是图生图首尾帧。

顾名思义,首尾帧就是从首帧图像,通过视频动效切换到尾帧图像。那么,我们需要准备两张图。

首帧图好解决,按照前面生成图像步骤,就可以得到这张冬季的分镜图。

深度拆解!这可能是全网最详细的AI视频创作教程

那春季场景如何解决呢?

按照前面的思路,方式有两种:

① Kimi 生成提示词,StableDiffusion 生成春季场景图。

但......你在提示词中想尽一切办法将两张图的场景描述保持一致,只改变风格描述的提示词,所生成的结果很可能与这张图片类似。

而在 AI 视频生成中,如果首尾帧两张图的场景区别太大,生成的效果一般不会让你满意。

深度拆解!这可能是全网最详细的AI视频创作教程

② 使用 Controlnet 固定冬季分镜图,不改变画面结构,只改变风格。

但首尾帧两张图的主体(车)位置、场景构图都一致的话,如何才能让车和场景切换更加自然呢?

深度拆解!这可能是全网最详细的AI视频创作教程

以上两种方法,其实都不好解决这一问题。

那么换个思路,我先让冬季场景分镜中的车动起来,然后等车走一段路后,截取那帧图,放到 StableDiffusion 中重绘场景。

具体操作:
上传单镜头,输入提示词“黄色跑车在道路上快速行驶,镜头跟随。”

深度拆解!这可能是全网最详细的AI视频创作教程

生成结果展示:

深度拆解!这可能是全网最详细的AI视频创作教程

然后,再从生成的视频中,截取最后一帧图。

深度拆解!这可能是全网最详细的AI视频创作教程

再放在 StableDiffusion 的 Controlnet 中,通过 Canny 模型控制构图,设置春季 Lora 改变风格。

深度拆解!这可能是全网最详细的AI视频创作教程

然后再使用首尾帧功能,将冬季分镜和春季分镜组合在一起,就搞定了。

深度拆解!这可能是全网最详细的AI视频创作教程

但细心的你可能会发现,我前面所展示的案例,冬春场景切换的视频镜头,是从冬天高架桥转换到春天高架桥(出现了两个高架桥)。

而并不像冬天单镜头视频那样,背景是保持不变(只有一个高架桥),其主要原因还是 AI 的随机性,如果你需要这样的效果,得多刷图。

而我选择这段分镜视频是因为,这条随机性生成的视频结果我很喜欢,挺有创意.......

好了,视频分镜生成的步骤我们也拆解完了。

步骤六:视频后期合成

到这一步,基本上完成这条短片 80%的工作了。当然,如果你准备使用 AE 等动效工具做片、转场等效果,可能还需要花点时间,本条视频轻度使用 AE,过程就不说了,放张图意思下。

深度拆解!这可能是全网最详细的AI视频创作教程

这个步骤主要说下剪映的 AI 功能。

通常,在使用 AI 视频生成工具时,生成的视频画质一般不会太高(通常是 1080P),如果你想要生成超清画质的视频,所消耗的生成点数比较多,或者说,贵!而 AI 的随机性,也会导致我们无法一次就能完成生成任务。

所以,一般在生成视频时,建议大家用小分辨率的生成品质来刷视频,比如可灵的标准模式。

深度拆解!这可能是全网最详细的AI视频创作教程

而最终我们所产出的视频,一定要保证画质清晰,否则你花了大量的时间,却在最后一步出稿时,因为画质问题导致视频不高级,是非常可惜的。

那么,如何解决这一问题呢?市面上有不少视频修复、放大的工具。

但本文只推荐剪映内置的功能,方便好用。所以,各位在剪辑完成后,请将“超清画质、视频降噪、AI 补帧”都用上。(不过,这些需要会员才能用)

深度拆解!这可能是全网最详细的AI视频创作教程

最后,导出视频时,将分辨率设置为 4K,补分辨率勾选上。这样,你就能得到一张超高清的片子了。

深度拆解!这可能是全网最详细的AI视频创作教程

步骤七:AI 生成封面标题

最后一步,视频做好后,需要一张封面,并且通常封面上会有标题文字信息。

封面好解决,用这条片子中的某张图片分镜,或者是按照生成分镜图像的步骤出一张即可。

深度拆解!这可能是全网最详细的AI视频创作教程

那么标题文字,我们可以使用即梦 AI 来做,即梦的 2.1 版本模型可以生成中文字体。

创作前,依旧是用 AI 来帮我们写提示词。即梦 AI 最近也上线了 DeepSeek 模型,可以直接在即梦中发送你的需求:“我需要设计标题文字,内容是「春日秀场 薯样年华」,白字黑底。”

深度拆解!这可能是全网最详细的AI视频创作教程

输出的提示词:为“春日秀场 薯样年华”设计标题文字,采用粗体、艺术化、手绘字体,呈现动态现代感,笔画粗细不均,带有街头艺术或图形设计的影响。字符可能相互连接,笔画自然融合,形成流畅设计,避免传统书法毛笔的笔触。文字为纯黑色,背景为纯白色,居中排列,呈单行略带曲线的布局,增强视觉流动感。

深度拆解!这可能是全网最详细的AI视频创作教程

最后,挑选一张你认可的标题设计,使用 Photoshop 等设计排版工具,大功告成。

深度拆解!这可能是全网最详细的AI视频创作教程

放上这条视频的 10 张分镜图,供大家参考。

深度拆解!这可能是全网最详细的AI视频创作教程

到此,这篇文章迎来了尾声,给大家分享下我的经验:

创作一条高质量、有创意的 AI 视频,所投入的成本绝不会很低。在分镜(图片、视频)创作上,你可能需要花大量的时间去尝试。虽然 AI 的生产能力很强,但真正能落地使用的内容却很少,因为 AI 的随机性就会导致我们需要不断地调试参数,不断地刷内容,而我们只能尽量的去控制 AI 生成的结果。

而在 AI 工具的使用成本上,顶级的大模型,如图像模型(Flux)、视频模型(可灵、Vidu 等),基本上需要开通会员才能顺畅的使用,还有 Photoshop、剪映等设计工具,如要使用其中的 AI 功能,也需要付费。

但是,对比传统的视频工作流,这些成本并不算高。

而在 AI 时代下,每个人都有可能成为导演。

以前遥不可及的梦,或许 AI 真的能帮我们实现......

最后,如果你想学习 AIGC,可以加入我主理的《优设 AI 俱乐部》,俱乐部内沉淀有 2000+ 优质 AI 学习资料,涵盖 AI 绘画、AI 视频、AI 提示词、AI 工具库、AI 商业设计案例、研究报告......

也可以点击链接: https://wx.zsxq.com/group/15288828142182

深度拆解!这可能是全网最详细的AI视频创作教程

收藏 108干货满满
点赞 88

复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。