今年4月份给大家透露过我们要发布新字体,现在优设招牌体正式发布!
优设招牌体是一款传统书写结合现代工具创作的标题美术字体。取魏碑结构转折锐利锋芒的特点,笔画造型匀称有力,给人一种刚毅且浑厚的气质。字体骨架左低右高,赋予其勃勃生机,主笔粗细相间中宫收紧,整体风格质朴刚强、气势恢宏。
我们期望优设招牌体以它独特的磅礴之美打动你,成为大家在各类设计中的理想选择,让人不容忽视,甚至眼前一亮。如商业门面的醒目招牌、文化传播的力作海报、及富含传统韵味的产品包装等,帮助你的产品处处彰显非凡格调。
更多介绍看这里👉 https://www.uisdc.com/uisdc-zhaopaiti
卷起来了,前不久阿里云推出了首个“AI程序员”。能够一站式自主完成任务分解、代码编写、测试、问题修复和代码提交等整个过程,能够在分钟级时间内完成应用开发。 近日,字节跳动推出了一款名为豆包 MarsCode 的智能开发工具,面向国内开发者免费开放。
核心功能: 1、提供智能代码补全、Bug修复、单元测试生成等AI功能。 2、支持多种编程语言和主流IDE。
云端集成开发环境(Cloud IDE):豆包MarsCode包含AI原生的云端IDE,无需配置复杂环境,直接在浏览器中进行编程和调试。 支持语言:支持C、C++、C#、Go、JavaScript、Java、Node.js、Rust、TypeScript等多种编程语言。 开发模板:提供多种开发环境和模板,减少环境配置时间。 原生AI能力:具备代码自动补全与生成、问题修复、代码优化等功能。
主要特点: 1、开箱即用,简化环境配置。 2、云端IDE,随时随地开发。 3、弹性云端资源,不受本地资源限制。
主要功能: - 编程助手和Cloud IDE:提供代码编写提议、代码补全、Lint错误修复等。 - 项目问答功能:针对需求开发、Bug修复、开源项目学习等场景提供支持。
更多介绍可以访问豆包 MarsCode官网!
昨天,在开发者们收到的警告信中,OpenAI 写道:将采取额外措施,封禁来自不支持国家和地区的API流量。7月9日起,将终止对不支持国家的API服务,中国包括在内。
昨天看到有小伙伴还在吐槽,刚续费了 ChatGPT 会员,不要慌,现在 LibreChat 横空出世,作为一个免费的开源 ChatGPT 克隆版,它不仅支持多种 AI 模型,还提供了灵活的自定义选项,解决了多 AI 模型整合和切换的问题。
LibreChat 代表了开源的精神和对技术的热爱,为用户提供了安全、灵活的聊天环境,大家不妨用着试试看!
LibreChat 官网
大家好,我想给大家介绍一个专为插画师和艺术爱好者设计的在线AI上色工具:Petalica Paint ,推荐大家试玩~
Petalica Paint 它的一大特点是内置的AI自动上色功能,你只需上传线稿图,软件就能智能识别并自动填充色彩,大大缩短了手动上色的时间,非常适合追求效率的创作者。工具提供了多样化的上色风格选项,可以根据作品的风格和自己的喜好进行选择。
Petalica Paint 还有线稿提取功能,无论是草图还是照片,都能清晰地分离出线条,为上色前的准备工作做好铺垫。在色彩调整方面,用户享有高度自由,可以任意调节颜色、透明度和饱和度,确保每个细节都符合你的创作愿景。
该软件与pixiv Sketch平台实现了良好的集成,你可以在pixiv Sketch里直接无缝使用Petalica Paint的各项功能,无需切换应用。
试玩→ Petalica Paint
近日,Anthropic 公司发布了 Claude 3.5 Sonnet,作为 OpenAI 的劲敌,这款全新的人工智能模型在智能水平上超越了所有的竞争对手。在推理、知识和编码能力方面,Claude 3.5 Sonnet 能够迅速理解复杂指令,撰写出高质量内容。与 Claude 3 Opus 相比,解码速度提升两倍,编码评估中解决的问题比例高达64%,展现出无与伦比的独立编写、编辑和执行代码能力,
Artifacts 功能更是锦上添花,允许用户在Claude.ai上动态编辑和构建Claude生成的内容,甚至能直接展示生成的代码为网页,无论是HTML、JS、CSS还是SVG都能轻松实现。
Claude 3.5 Sonnet的到来,意味着代码世界即将迎来一场革命。你,准备好迎接挑战了吗?
最近,Anthropic 发布了全新大模型 Claude 3.5 Sonnet,号称是迄今为止最智能的模型。
Claude 3.5 Sonnet 是 Anthropic 即将推出的 Claude 3.5 系列的首个版本。该模型提高了整个领域的智能水平,在绝大多数基准评估中都超越了竞品大模型和自家前代最强 Claude 3 Opus。而且,运行速度、成本与自家前代 Claude 3 Sonnet 相当。最重要的是可以免费使用!
以下是关于Claude 3.5 Sonnet的几个关键点: 1. 模型性能:Claude 3.5 Sonnet在多个基准测试中,包括研究生水平推理(GPQA)、本科生水平知识(MMLU)和编码能力(HumanEval),设定了新的行业标准,展现出对细微差别、幽默和复杂指令的出色理解能力,以及以自然、友好的方式生成高质量内容的能力。 2. 速度与成本:它的运行速度是其前代Claude 3 Opus的两倍,同时保持了与Claude 3 Sonnet相似的成本效益,这意味着对于用户来说,它能更高效地处理复杂任务,且价格合理。 3. 免费与付费访问:Claude 3.5 Sonnet在Claude.ai网站和iOS应用上免费提供给用户,而订阅了Claude Pro和Team计划的用户可以享受更快的访问速率。此外,它也通过Anthropic API和亚马逊云科技Bedrock等平台提供,定价为每百万个输入token 3美元,每百万个输出token 15美元。 4. 视觉能力:该模型在视觉识别和处理方面也表现出色,成为Anthropic至今为止最强的视觉模型,特别是在处理视觉推理任务,如解释图表、图形转录文本等方面,这对零售、物流和金融服务等行业尤为重要。 5. Artifacts功能:Anthropic引入了一项名为Artifacts的新功能,允许用户在与Claude交互时,于对话旁边专用窗口中实时查看、编辑和构建由Claude生成的内容,比如代码片段、文本文档和网站设计,进一步促进了人工智能与人类工作的无缝集成。 6. 安全性考量:Claude 3.5 Sonnet经过严格的安全测试,并被分类为AI安全等级2(ASL-2),意味着它在化学、生物、放射性、核风险、网络安全和自主能力等领域使用相对安全,不会造成灾难性损害。Anthropic还与外部专家合作,不断测试和完善模型的安全机制,以减少滥用风险。
地址:https://claude.ai/
Adobe Acrobat 迎来了重大 AI 升级,支持多文档分析和图像生成,此次升级主要包括以下两个方面:
1、多文档分析:Acrobat 的 AI 助手现在能够同时分析和查询多个文档,包括非 PDF 文件。这意味着用户可以将多个 PDF 或其他格式的文件拖拽至应用程序中,AI 助手会自动处理这些文件并提供相关信息。
2、图像生成和编辑:Adobe Acrobat 引入了全新的“Generate Image”功能,用户可以选择 PDF 文件中的某段内容,调用 AI 来生成图片,并调整图片的样式和大小。还有“Edit Image”功能,允许用户通过 Firefly AI 模型对现有图像进行编辑,例如删除背景、擦除和裁剪等。
这次升级显著增强了 Acrobat 的功能,使其在处理复杂文档和图像方面更加高效和智能。
各位设计师们,这个工具太牛了啊,只需在源图像中指定需要编辑的区域,并提供一张参考图,MimicBrush 就能智能捕捉两者间的联系,自动完成局部编辑或替换。该工具的主要功能包括局部区域编辑、纹理转移和后期处理优化等。分享给大家!!
MimicBrush 是由中国香港大学、阿里巴巴集团和蚂蚁集团联合开发的一种零样本图像编辑工具,通过参考图像进行模仿编辑,帮助用户更方便地进行创作。
MimicBrush 的主要特点包括: 参考图像模拟:分析并复制参考图像中指定的视觉特征到源图像中的标记区域,确保风格或内容的一致性。 零样本图像编辑:允许用户在没有原始目标图像的情况下进行图像编辑,通过参考仿制的方式实现编辑效果。 文本到图像对齐:利用 CLIP 编码器和 VAE 实现文本到图像的对齐功能,用户可以通过输入文本描述来指导编辑过程。 多样化的编辑结果:展示了一系列多样化的编辑结果,包括局部区域编辑、纹理转移和后期处理优化等功能。
MimicBrush 还简化了复杂的编辑流程,提高了效率和灵活性,特别适用于产品定制、角色设计和特效制作等领域。其底层框架基于 SD1.5 的扩散模型和 MimicBrush 模型结合,极大地简化了 AI 图像编辑的流程。
项目地址:https://github.com/ali-vilab/MimicBrush
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
苹果前段时间刚宣布 Vision Pro 国行版月底正式发售,近日腾讯视频的 VisionOS 端就已经上线了,并且提供了沉浸式追剧的体验。用户可以在 App Store 下载该应用程序,腾讯视频现在是国内首批支持VisionOS 的长视频平台之一。
腾讯视频为 VisionOS 端用户提供了超过 600 部资源,包括《庆余年第二季》、《三体》和《斗罗大陆》等热门影视作品。这些内容不仅涵盖了剧集、动漫、电竞、电影、综艺和纪录片等多元内容类型,还总时长超过1000小时。
为了增强用户的沉浸式体验,腾讯视频还推出了“IP空间体验”、“王者沙盘”和“客厅巨幕影院”等多项功能。这些功能利用了Apple Vision Pro的空间计算特性,基于RealityKit与空间音频技术,为用户提供了更加真实和互动的观看模式。 腾讯视频的VisionOS端不仅提供了丰富的视频资源,还通过先进的技术手段,为用户带来了前所未有的沉浸式追剧体验。
腾讯视频各种SVIP已经开好了,现在就差个 Vision Pro 了~~
斯坦福大学的研究团队与 Apparate Labs 前几天发布一款名为 Proteus 的创新 AI 视频生成模型,可以从单一图像生成笑、说唱、唱歌、眨眼、微笑、说话高度逼真和具有表现力的虚拟人物。 PROTEUS兼容多种大模型的多模态输入,可以处理语音、文本和图像等多种形式的数据。
Proteus模型亮点: - 高度逼真:利用先进的AI技术,Proteus能够从单张图片生成具有高度逼真表情和流畅动作的虚拟人物形象。 - 低延迟生成:Proteus模型具备低延迟特性,能够实时响应语音输入,生成每秒超过100帧的视频流。 - 多模态交互:模型支持语音、文本和图像等多种输入形式,实现与用户的自然直观交互。
应用领域: Proteus模型在个性化虚拟助理、虚拟宠物、情感支持、客户服务、教育和培训、游戏定制、影视娱乐、市场营销和社交媒体等领域具有广泛的应用潜力。
申请体验地址: https://apparate.ai/early-access.html
我们都知道 Stable Diffusion 3 是一款强大的文生图模型,拥有20亿参数,因其高效的推理速度和卓越的生成效果而备受瞩目。
近日,Stability AI在推特上宣布正式开源了 Stable Diffusion 3 Medium(SD3-M) 权重,为广大用户带来了免费试用的机会。而且官方还宣称 SD3-M 是他们 Stable Diffusion 3 系列中最新、最先进的文本转图像 AI 模型!
Stable Diffusion 3 Medium(SD3-M)关键要点: 1. Stable Diffusion 3 Medium,由 Stability AI 推出,代表了我们迄今为止在文本到图像领域最前沿的开放模型技术。 2. 这款模型设计紧凑,便于在常见的个人电脑、笔记本电脑,以及企业级图形处理单元(GPU)上高效运行。其优化的大小使其成为文本转图像应用的新一代标准。 3. 现在,这些精心调整的模型权重可以在非商业性的开放许可证和面向创作者的低成本许可证下供您使用。如果您有大规模商业应用的需求,欢迎联系我们以获取更详细的许可信息。 4. 想要体验 Stable Diffusion 3 模型的魅力,您可以通过 Stability AI 的平台 API 来尝试。我们还提供在 Stable Assistant 上注册即可享受的三天免费试用。此外,您还可以通过 Discord 加入 Stable Artisan,进一步探索模型的潜力。
Stability AI官方公告 地址:http://stability.ai/news/stable-diffusion-3-medium
设计师新宠来啦!初创公司 Luma 全新发布 Dream Machine,能从文本/图像直接生成视频。感觉比 Sora 也差不了多少。
Dream Machine 120秒就能给你做出一个120帧的视频!这速度,想改点啥,马上就能再做一个新的,太高效了!而且镜头效果超自然,Dream Machine还超级懂镜头语言!它能模拟出各种电影级的摄像机运动,让你的视频看起来就像大片一样流畅、自然。
大家可以看看下面的演示视频,它还能理解人和物是怎么在现实中互动的,所以做出来的视频里,角色和场景都超级真实,一点都不会觉得假。
最最最主要的是,现在人人都可以免费体验!服务器都快被大家挤爆了,你还在等啥呢?赶紧来试试吧!
体验地址:https://lumalabs.ai/dream-machine
Follow-Your-Emoji是一项创新技术,它通过精确捕捉视频人物的面部特征,尤其是面部细节和瞳孔动态,为你的照片注入生动活力。无需复杂的面部轮廓勾勒,只需一张静态照片,Follow-Your-Emoji就能将其转化为活灵活现的面部动画。
Follow-Your-Emoji究竟有何神奇之处?
1. 真实身份再现:在动画生成过程中,它巧妙保留参考头像的独特身份特征,确保你的形象始终如一。 2. 表情千变万化:无论是细微的眼部动态还是夸张的表情变化,Follow-Your-Emoji都能轻松捕捉,让你的表情更加生动自然。 3. 风格多样选择:无论你喜欢卡通、现实人物、雕塑还是动物风格的动画,Follow-Your-Emoji都能满足你的需求,让你的照片焕发不同的魅力。 4. 稳定持久动画:采用先进的渐进生成策略,确保长时间动画的稳定性和一致性,让你的照片动画更加持久流畅。
想象一下,你可以使用一段视频或动作序列来驱动多个不同的参考头像生成动画,让每个头像都按照同一个动作序列展现相同的动作和表情。或者,你也可以用一张参考头像与多个不同的驱动视频结合,创造出丰富多样的动画效果。
项目介绍:https://follow-your-emoji.github.io/
近日,快手发布了国内首个效果对标 Sora 的视频生成大模型「可灵」,并已在其旗下的快影App中开放邀测体验。
可灵大模型是由快手 AI 团队自研,采用了类似 Sora 的技术路线,并结合了多项自研创新技术。该模型具备强大的概念组合能力和想象力,能够生成具有大幅度合理运动的视频,并模拟物理世界特性。其生成的视频分辨率高达1080p,时长最高可达2分钟(帧率30fps),且支持自由的宽高比。
可灵大模型不仅限于文生视频功能,还将推出其他应用,如“AI舞王”和“AI唱跳”,这些应用可以驱动表情和肢体动作,仅需一张照片就能生成相应的视频。
目前,可灵大模型已在快影App中正式开启邀测,支持720p视频生成,竖版视频生成能力也即将开放,大家可以来试一试,看看生产的效果怎么样!
官网地址:https://kling.kuaishou.com/