Whisk是由Google推出的一款AI图像生成工具,以其独特的“以图生图”功能,彻底颠覆了传统图像创作的模式,允许用户使用图像作为提示来生成新的图像,而不需要冗长的文本提示,用户可以提供多张图像来指定主题、场景和风格,Whisk能够将这些图像的风格混合在一起,生成具有新风格的照片。
功能特点 1. 以图生图:Whisk的核心功能在于其“以图生图”的能力。用户无需费心构思文字提示,只需通过上传图片,就能让工具自动理解并生成符合预期的图像。 2. 风格混合:Whisk的智能算法能够精准捕捉并混合不同图片的风格特征,无论是抽象的艺术风格,还是具体的场景元素,都能被巧妙地融入新的图像中。 3. 快速迭代:生成的图像并非一成不变,用户可以通过编辑文本提示或上传新的图片,轻松实现图像的迭代修改,进一步优化生成结果。
近期,Stability AI 推出的一款创新性视频生成模型 Stable Video 4D
模型下载:https://huggingface.co/stabilityai/sv4d
Stable Video 4D 的主要特点: - 高质量视频内容:Stable Video 4D 能够处理和生成高质量的视频内容,满足专业应用的需求。 - 合成数据集训练:虽然目前主要基于合成数据集进行训练,但 Stability AI 正在优化模型以适应真实世界的视频场景。 - 相关模型:除了 Stable Video 4D,Stability AI 还发布了 Stable Video Diffusion 和 SV3D 等模型,它们支持从图像或文本生成视频,并在多视图合成和高分辨率视频生成方面表现出色。
个人感觉这个模型还挺强的,大家觉得有哪些实际应用场景啊?
哎呀,昨晚 Meta 发布被称为最强开源的 Llama 3 系列模型了,大晚上扔了个炸弹啊!说实话,这事儿也不算太意外,毕竟 Meta 总是喜欢搞点大动作。他们这次带来的就是那个自称“有史以来最牛”的开源大模型——Llama 3系列。 咱们设计师,又可以借助这个新模型好好发挥一番了!
一起看看这个 GPT-4 级模型,它能干得过 GPT-4 么?
Llama 3模型的特点 - 规模与性能:Meta开源了两款不同规模的Llama 3模型,分别是8B和70B参数规模。Llama 3 8B在性能上与Llama 2 70B相当,而Llama 3 70B则在性能上媲美甚至超越了其他顶尖AI模型。 - 技术改进:Llama 3在预训练和后训练方面都有所改进,优化了模型的一致性和响应多样性,降低了出错率。 - 多模态与多语言:未来几个月,Meta将推出具备多模态、多语言对话和更长上下文窗口的新模型,其中包括超过400B的模型,预计将与现有的顶尖模型竞争。
Llama 3的性能测试 - 基准测试:Llama 3在多个测试中得分超越了其他同类模型,显示出其在推理、代码生成和遵循指令等方面的突破性提升。 - 人类评估数据集:Meta开发了一套新的高质量人类评估数据集,用于准确研究模型性能。
开源与闭源的辩论 - 开源优势:Meta坚定地支持开源路线,认为这有助于推动社区和公司双方的创新。 - 未来展望:尽管Llama 3为开源模型赢得了一场胜利,但关于开源与闭源的辩论仍在继续。未来,可能会有更高性能的模型出现,为这场辩论带来新的转折。
附上 Llama 3 体验地址:https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct
OpenAI 周五在其官网上发表了博客文章,名为“驾驭合成声音的挑战和机遇”, 这也是 OpenAI 在官网首次展示了全新自定义音频模型“Voice Engine”。
用户只需要提供15秒左右的参考声音,通过Voice Engine就能生成几乎和原音一模一样的全新音频,在清晰度、语音连贯、音色、自然度等方面比市面上多数产品都强很多。
除了能合成音频之外,OpenAI 还展示了Voice Engine很多其他际商业用途,例如,一位失去声音表达能力的女孩,在Voice Engine帮助下能像以前一样正常发音说话。
全文内容:OpenAI 官网
Voice Engine 应用场景: 1. 阅读助手:可以通过自然且富有情感的声音为非阅读者和儿童提供阅读辅助,实时个性化响应,与学生互动。 2. 内容翻译:可以翻译视频和播客等内容,使创作者和企业能够以流利且原汁原味的声音触达全球更多受众。 3. 服务全球:改善偏远地区的必要服务。 4. 帮助言语障碍人士:为言语障碍人士提供治疗应用,以及为有学习需求的人士提供教育增强功能,使残疾人能够进行交流。 5. 帮助病人恢复声音:帮助患有突发性或退行性言语障碍的患者恢复声音。