Aiuni 是一款基于人工智能技术的 2D图片转3D模型生成工具,由北京云可科技开发,并依托清华大学团队开源的Unique3D框架实现高效建模。
Aiuni 核心功能与技术特点 1. 快速3D建模:用户上传单张2D图片后,系统能在约30秒内生成高保真3D模型,支持OBJ、STL等通用格式导出,大幅简化传统建模流程。 2. 多视图扩散与法线图生成:通过深度学习技术,从单张图片推断物体的多角度视图和法线图,为3D重建提供多维度信息。 3. 即时一致的网格重建算法(ISOMER):确保模型颜色和几何形状的一致性,减少传统方法中常见的细节失真问题。 4. 高分辨率上采样:逐步提升图像分辨率,捕捉更丰富的纹理细节,生成清晰度更高的模型。 5. 多模态算法扩展:未来计划整合视频、动画、图形学数据,训练角色、场景、动作大模型,构建4D时空表征系统。
大家还记得 Sora 是什么时候发布的吗?2 月份,当时 OpenAI 发布之后,一夜之间就把 AI 视频生成界搅得天翻地覆啊,但是现在一点消息都没有了,反倒是其他平台遍地开花,特别是这个月,简直太爆炸了~
昨天深夜,Runway 放出酝酿了半年的全新版本 Gen-3 Alpha,也让我们再次见证了这些巨头的底蕴。
Runway Gen-3 Alpha 特点如下: 高保真视频生成:能够生成接近真实世界质量的视频内容,具有高度的细节和清晰度。 精细动作控制:模型能够精确控制视频中对象的动作和过渡,实现复杂场景的流畅动画。 逼真人物生成:特别擅长生成具有自然动作、表情和情感的逼真人类角色。 多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。 先进工具:支持运动画笔、相机控制和导演模式等专业创作工具。 增强的安全措施:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。 高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。
现在还在内测中,后期可以体验的时候再给大家分享地址!
现在,你可以像和 ChatGPT 聊天一样使用谷歌地图了。
谷歌地图最新升级包括以下 5 点: 1. 对话式地图搜索 直接与 Google Maps 聊天搜索信息,AI 将使用 Google Maps 上的商户信息、照片、评分和评论等信息来提供可信的结果。
2. 实时查看地图 只需点击相机图标即可使用实时视图进行搜索。谷歌地图会显示附近的 ATM、餐厅、公园和公交站,并显示其开放时间和评级,且跟随 AR 箭头,准确引导您到达目的地。
3. 全新沉浸式视图 在正式访问地点之前先确定其范围,查看逼真的视图,并获取天气预报、高峰时段等有用信息,而且还能查看室内景观。比如在订餐时可以展现餐厅氛围,帮助您选择。
4. 新增多重搜索 现在,您可以结合文字和图像, 在 Google 地图上访问数百万本地企业的信息。
5. 获取人工智能建议 随时随地获取人工智能支持的建议。如果开始下雨,可以向地图询问“雨天活动”并获取附近的喜剧表演或电影院等建议。
Dynamic Typography这个标题动画方案,简直是神器啊!你想啊,在你设计的标题里,加个SVG小动画,立马就能抓住观众的眼球!
详细介绍: 一个名为“动态排版(Dynamic Typography)”的自动化文字动画方案,它结合了变形字母表达语义和根据用户指令添加动态效果这两项技术难题。 我们的方法采用了矢量图形表示和端到端的优化框架,使用神经位移场技术将字母转换成基本形状,并配合逐帧动态效果,确保动画与文字的意图保持一致。 通过形状保持技术和感知损失正则化,我们确保了动画在整个制作过程中的可读性和结构完整性。
用了 Dynamic Typography,你的设计肯定能让人眼前一亮,赞不绝口!
项目地址:Dynamic Typography
微软 GitHub 于今年 7 月份面向企业用户推出了 Copilot Chat 工具,这是一个 AI 代码助手。现在 GitHub 宣布将 Copilot Chat 公测版扩展至个人用户,提供实时编程帮助。用户可通过订阅每月或每年的个人用户费用来体验该功能,提高编码效率和质量。
以下是GitHub Copilot Chat的主要功能: 1、实时指导:它可以为开发者提供实时的最佳实践、技巧和解决方案建议。 2、代码分析:开发者可以使用它来分解复杂的编程概念,并获取代码片段的详细解释。 3、修复安全问题:它能够识别代码中的安全漏洞,并为其提供修复建议。 4、简单的故障排除:除了识别代码中的问题,它还可以为开发者提供解决方案、解释和替代方法。 5、学习新的语言或框架:它可以帮助开发者快速学习新的编程语言或框架,并为他们提供相关的代码示例和建议。
华为诺亚方舟实验室、清华大学信息科技学院、大连理工、香港大学和Hugging Face的研究人员,共同发布了一款名为PIXART-δ的超高清文生图模型。
这一模型集成了潜在一致性模型(LCM)和创新控制架构ControlNet-Transformer,实现了在文生图像方面的重大技术突破。仅需0.5秒2-4个推理步骤,PIXART-δ就能完成图像生成,速度比之前的PIXART-α模型快了7倍。
在ControlNet-Transformer的帮助下,PIXART-δ可以对生成模型的输出进行精确控制,包括图像的边缘、深度、分割和对象姿势等,类似于OpenAI的DALL·E 3。
Slides Orator 是一个创新的AI演示工具,它通过3D虚拟形象和人工智能技术,为用户提供了全新的演示体验和高效的演示解决方案,适用于多种场景和需求
Slides Orator 工具介绍 1. 创建3D虚拟形象: - 用户可以创建一个虚拟形象(avatar),这个形象可以在演示中“活生生”地呈现幻灯片内容。这种形式比传统的静态幻灯片更具吸引力和吸引力
2. 生成旁白: - Slides Orator 使用人工智能技术来生成旁白。用户只需上传演示内容,AI就能根据内容生成相应的语音旁白,省去了手动录制旁白的时间和精力
3. 实时演示: - AI虚拟形象能够实时地展示幻灯片内容。这意味着在演示过程中,虚拟形象可以根据幻灯片的变化进行相应的动作和语音表达,使演示更加流畅和自然
4. 基于幻灯片知识的实时聊天: - Slides Orator 提供了实时聊天功能,用户可以基于幻灯片的内容与观众进行互动。这种互动可以是问答、讨论等形式,有助于提高观众的参与度和理解度
5. 分享演示: - 用户可以通过一个简单的网络链接与他人分享演示。这意味着观众可以通过点击链接随时随地观看演示,不受时间和地点的限制