AI 在当下对于视频&微动效的处理能力如何?是否已经达到了可以商用的程度?曾经试过一些 AI 视频工具但是体验不好,应该如何操作?不会 AE、C4D 但是我想做个动态效果怎么弄?
推荐阅读
接下来将对此进行详细解答。
1. 省时间
通过 AI 可以快速完成视频&动效设计,仅需要几分钟的时间就能完成传统需要拍摄或渲染等几个小时才能完成的工作,在短时间内提供有效的解决方案。
2. 高质量
拍摄高质量镜头画面时,传统需要使用高清摄像设备,并且需要利用补光灯确保视频画面明亮而均匀,避免出现强烈的阴影区域。同时使用稳定器确保镜头稳定,避免抖动画面,还需要注重背景干净整洁,以突出主体...
但是对于 AI 的生成以上繁琐的工作,仅仅输入“提示词”即可获得以上所有结果。
3. 低成本
对于未确定方案的设计,以往产出两版以上方案,至少需要守着电脑调整上几个小时,偶尔再遇上几个项目同时进行,将把大量时间耗费在方案初稿的制作上,这种情况确实不太划算,因此交给 AI 来处理会更轻松。
当然对于 AI 在视频及动效领域使用也不仅仅局限于此。
4. 可创作
将格局打开,对于 AI 拓展其更多还是进行创意产生,结合不同有趣的内容来引起观众兴趣。
AI 所产出的内容也更具多元化,形式丰富,风格广泛动漫、3D、日常、现代、电影、真实、国风...都很擅长。
近半个月的时间,对市面上常见的几款 AI 视频生成工具进行了体验尝试。
其中 runway 的可用性最高,产出效果最稳,能够通过运动笔刷手动控制运动范围,还有运镜、配色调整比较实用的功能,并且清晰度也强于其他工具。
但是 runway 在实际使用过程的体验,属于半免费模式,普通用户每月有数量限制,很可能刚刚生成了几个较为满意的画面后,继续在产出相似内容就需要付费。
其余还使用了 Pika、stablevideo、whee 这三个工具,但是感觉可用性还是略低了一些,总体来看距离使用 AI 在视频及动效领域商用还是有所不足。
1. 影响因素
经过短期体验后,主要发现以下三个主要因素,会影响 AI 生产视频及动效可用性的。
a. 逻辑性
放任 AI 自由发挥时,会经常出现一些逻辑性错误,很多视频与动效都缺乏真实感,主要体现在与现实世界规律不同。例如:半静止半运动的效果,车辆在运动但车动不转,水流时水花在动水面确实静止的.....等种种不符合常理的效果。
b. 稳定性
对原始内容的视频及动效可控性低,尤其是以人物为主,即使“提示词”相同情况下,生成的内容也会出现较大的差异,以至于操作多次也无法得到一个满意的效果。
c. 视频时长
主流工具视频时长一般在 3-4 秒,而 Sora 内测公布的最长为 30 秒一个镜头。当然目前来看 3-4 秒的时间,仅适合用于分镜,想要用于制作视频的话还需要进行剪辑。
PixVerse 是一款完全免费的 AI 微视频动效生成工具,对比 runway 的后续还需要付费的问题性价比确实是非常高的。
这款工具用户界面十分友好,操作比较便捷并且 AI 算法及 AI 模型也比较先进可以进行高质量的视频制作,也可以进行大分辨率的高清质量输出。
同时也支持文本、图像、换脸等基本生成功能。
接下来简单介绍一下工具的基本功能,工具网址:https://app.pixverse.ai/
1. Create-创作功能
完成注册登录后,就可以使用创作功能了。点击页面的右上角即可进入。
进入创作功能后可以看到第一排依次有三个主要功能:文本、图像、换脸。
2. 文本生成
- 功能依次为
- 输入正向提示词
- 输入反向提示词
- 一次连续生成两个视频
- 风格选择
- 视频比例
- 种子数
3. 图像生成(重点)
功能依次为 1.上传/选择已有图片、2.输入正向提示词、3.运动强度(重点)、4.种子数、5.高清画质(重点)
4. 换脸(重点)
这个工具的换脸与常用的图片换脸还是略有区别,主要是使用获取到的人物特点与提示词进行重绘。
功能依次为
- 输入正向提示词
- 色彩增强
- 输入反向提示词
- 添加人物(重点)
- 视频比例
- 种子数
5. 其他功能
除生成视频以外还有视频广场、我的视频、我的收藏及人脸特点记录等其他功能。
初次使用你一定会感觉这个工具很傻 BUG 太多了,感觉并不是很稳定可用性没那么高。是的你感觉没有问题,这个工具确实需要控制才能输出靠谱的视频动效。
1. 图像内容生成
这是一个 AI 视频动效工具,而不是一个 AI 图像工具,因此请放弃使用文生图的想法吧!这个功能真的很鸡肋!
对比可以看一下,左侧是 PixVerse 生成右侧是 Midjourney 生成,视觉效果清晰度等差距真的很大。
建议一:通过 Midjourney、Stable Diffusion 等平台生成图像内容后再导入 PixVerse 进行视频动效处理,不要使用 PixVerse 自带的文生图功能
2. 视频动效清晰度优化
PixVerse 对于图像生成视频动效,会根据原图尺寸进行输出,因此需要在上传图像时调整好所需视频的尺寸比例等,节省后期对视频二次加工剪辑的成本。
当然越大尺寸的图像生成时的速度也会变慢,但稍稍的等待还是值得的。
建议二:尽量上传前修改好图像尺寸并使用高清图像。
同时打开高清画质,虽然速度会稍慢些,但是输出视频动效的可用程度更好。当然在快速实验草稿时还是可以关闭的。
建议三:打开高清画质后效果更佳。
3. 画面崩坏解决
翻白眼、四肢麻花状扭曲、凭空出现异物、五官挤压变形、局部模糊使用过 AI 视频动效工具的一定会深有体会,这种画面崩坏经常是无缘无故的出现几乎没什么办法进行控制。
因此为了避免画面崩坏的情况发生,首先建议对运动强度进行调节,由 0.01 逐渐向上增加直至 1.00 为止。
建议四:初期的运动强度建议使用 0.20-0.40 之间为宜,后期可根据生成效果逐渐调高或降低。
4. 复制相同动作
种子值也不要忘记使用哦!Seed 种子数是用来标记图片的编号,使用相同的 Seed 值能够产生相似的视频动效。可以通过在热门视频广场中找寻一些适合的效果,然后粘贴上他的 Seed 值,这样生成的结果也能很好避免了画面崩坏的几率。
左侧是热门广场中的视频,使用上他的 Seed 值后我的图像也获得相似的眨眼效果。
建议五:如果发现有合适的视频动效,记得复制他的种子值用在所生的图像中也能获得相似的效果。
当然作为 UI 设计师,对于视频需求并不是那么多,日常工作中还是主要以产品动效为主,因此通过 PixVerse 解决一些手上实际的需求,更能体现其实用性。
1. 场景 ICON 动效
对于一些场景类的提示 ICON 动效,可以直接交给 AI 来做,使用 PixVerse 可一次性获得四版方案,即使不满意也没有任何限制,持续生成就可以了直到满意为止。
2. 运营浮窗动效
日常工作中运营浮窗的动效设计也是必不可少的,此类偏运营的需求会占用掉大量的精力,主要在图片的分层导出及 AE 等软件的制作中,即便有一些动效插件,也需要对设计稿的图层进行分组。对此使用 AI 搞定动效的方式,是快速批量解决此类简单动效需求的一个出路。
左侧为 AE 制作,右侧为 AI 制作(当然 AI 做的还是有些小问题的,主要不是透明背景)
3. 功能性 ICON 动效
此类 ICON 精度要求比较之前两个更高,如果使用 AI 工具可用性并不大,即使视觉能用,转为 json 的文件也会过大。因此更适合用与动效的概念设定。
例如针对首页的小房子 ICON,AI 会提供一些动效以便参考,放大缩小,线性变形,颜色变化等方案
经过这半个月的体验后也逐渐有了一些粗浅的认识,虽然没有预想的那么好用,但是也没有特别不适的体验。其主要原因还是由于图像 AI 工具已经成熟,使用 Midjourney 等工具完全可以帮助设计落地。随着算法模型等不断的迭代,预计下半年 AI 对于视频动效领域会出现一些质的飞跃。
当然例如 PixVerse 等类型的 AI 工具还有许多,期待各位的探索。
欢迎关注「58UXD」的微信公众号:
复制本文链接 文章为作者独立观点不代表优设网立场,未经允许不得转载。
发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们
LoRA模型训练
已累计诞生 637 位幸运星
发表评论 已发布6条
↓ 下方为您推荐了一些精彩有趣的文章热评 ↓