各位设计师们,这个工具太牛了啊,只需在源图像中指定需要编辑的区域,并提供一张参考图,MimicBrush 就能智能捕捉两者间的联系,自动完成局部编辑或替换。该工具的主要功能包括局部区域编辑、纹理转移和后期处理优化等。分享给大家!!
MimicBrush 是由中国香港大学、阿里巴巴集团和蚂蚁集团联合开发的一种零样本图像编辑工具,通过参考图像进行模仿编辑,帮助用户更方便地进行创作。
MimicBrush 的主要特点包括: 参考图像模拟:分析并复制参考图像中指定的视觉特征到源图像中的标记区域,确保风格或内容的一致性。 零样本图像编辑:允许用户在没有原始目标图像的情况下进行图像编辑,通过参考仿制的方式实现编辑效果。 文本到图像对齐:利用 CLIP 编码器和 VAE 实现文本到图像的对齐功能,用户可以通过输入文本描述来指导编辑过程。 多样化的编辑结果:展示了一系列多样化的编辑结果,包括局部区域编辑、纹理转移和后期处理优化等功能。
MimicBrush 还简化了复杂的编辑流程,提高了效率和灵活性,特别适用于产品定制、角色设计和特效制作等领域。其底层框架基于 SD1.5 的扩散模型和 MimicBrush 模型结合,极大地简化了 AI 图像编辑的流程。
项目地址:https://github.com/ali-vilab/MimicBrush
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
暑期档看什么?小编强烈安利博纳影业抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》
在博纳 25 周年向新而生新闻发布会上,博纳影业出品制作、抖音联合出品的 AIGC 科幻短剧集《三星堆:未来启示录》正式亮相。该剧第一季共 12 集,作为抖音推出的首部 AIGC 科幻短剧集,预计上线今年的短剧暑期档,在即梦 AI、博纳影业 AIGMS、剪映的抖音官方账号同步更新。即梦 AI 作为首席 AI 技术支持方,基于豆包大模型技术,为《三星堆:未来启示录》提供AI剧本创作、概念及分镜设计、镜头画面生成、图像到视频转换、视频编辑和媒体内容增强等十种 AI 技术。
喜欢 AI 视频的小伙伴一定不要错过啊!
还有几天就到高考填报志愿的时候了,各位设计师宝宝们有什么忠告要给后来的学弟学妹们吗?趁着他们还有救,说出你的故事!
比如我就觉得:没有耐心就不要学工业设计了,建模渲图都太消磨人的意志力了。我就是在那个渲染到一半寝室突然停电的晚上,哭着下决心要转行 UI 设计的。
另外,教育部阳光高考平台首次推出“阳光志愿”信息服务系统,今天正式上线!平台集成海量数据,详尽的专业库、院校库、就业前景等,免费向千万考生开放使用。同时提供有针对性的专业、职业心理测评,帮助考生更好了解自己的专业和职业倾向。
直达链接: https://gaokao.chsi.com.cn/zyck/
苹果前段时间刚宣布 Vision Pro 国行版月底正式发售,近日腾讯视频的 VisionOS 端就已经上线了,并且提供了沉浸式追剧的体验。用户可以在 App Store 下载该应用程序,腾讯视频现在是国内首批支持VisionOS 的长视频平台之一。
腾讯视频为 VisionOS 端用户提供了超过 600 部资源,包括《庆余年第二季》、《三体》和《斗罗大陆》等热门影视作品。这些内容不仅涵盖了剧集、动漫、电竞、电影、综艺和纪录片等多元内容类型,还总时长超过1000小时。
为了增强用户的沉浸式体验,腾讯视频还推出了“IP空间体验”、“王者沙盘”和“客厅巨幕影院”等多项功能。这些功能利用了Apple Vision Pro的空间计算特性,基于RealityKit与空间音频技术,为用户提供了更加真实和互动的观看模式。 腾讯视频的VisionOS端不仅提供了丰富的视频资源,还通过先进的技术手段,为用户带来了前所未有的沉浸式追剧体验。
腾讯视频各种SVIP已经开好了,现在就差个 Vision Pro 了~~
斯坦福大学的研究团队与 Apparate Labs 前几天发布一款名为 Proteus 的创新 AI 视频生成模型,可以从单一图像生成笑、说唱、唱歌、眨眼、微笑、说话高度逼真和具有表现力的虚拟人物。 PROTEUS兼容多种大模型的多模态输入,可以处理语音、文本和图像等多种形式的数据。
Proteus模型亮点: - 高度逼真:利用先进的AI技术,Proteus能够从单张图片生成具有高度逼真表情和流畅动作的虚拟人物形象。 - 低延迟生成:Proteus模型具备低延迟特性,能够实时响应语音输入,生成每秒超过100帧的视频流。 - 多模态交互:模型支持语音、文本和图像等多种输入形式,实现与用户的自然直观交互。
应用领域: Proteus模型在个性化虚拟助理、虚拟宠物、情感支持、客户服务、教育和培训、游戏定制、影视娱乐、市场营销和社交媒体等领域具有广泛的应用潜力。
申请体验地址: https://apparate.ai/early-access.html
我们都知道 Stable Diffusion 3 是一款强大的文生图模型,拥有20亿参数,因其高效的推理速度和卓越的生成效果而备受瞩目。
近日,Stability AI在推特上宣布正式开源了 Stable Diffusion 3 Medium(SD3-M) 权重,为广大用户带来了免费试用的机会。而且官方还宣称 SD3-M 是他们 Stable Diffusion 3 系列中最新、最先进的文本转图像 AI 模型!
Stable Diffusion 3 Medium(SD3-M)关键要点: 1. Stable Diffusion 3 Medium,由 Stability AI 推出,代表了我们迄今为止在文本到图像领域最前沿的开放模型技术。 2. 这款模型设计紧凑,便于在常见的个人电脑、笔记本电脑,以及企业级图形处理单元(GPU)上高效运行。其优化的大小使其成为文本转图像应用的新一代标准。 3. 现在,这些精心调整的模型权重可以在非商业性的开放许可证和面向创作者的低成本许可证下供您使用。如果您有大规模商业应用的需求,欢迎联系我们以获取更详细的许可信息。 4. 想要体验 Stable Diffusion 3 模型的魅力,您可以通过 Stability AI 的平台 API 来尝试。我们还提供在 Stable Assistant 上注册即可享受的三天免费试用。此外,您还可以通过 Discord 加入 Stable Artisan,进一步探索模型的潜力。
Stability AI官方公告 地址:http://stability.ai/news/stable-diffusion-3-medium