太震撼了啊,没等到GPT-5,却迎来了 OpenAI 新旗舰模型GPT-4o!
5月14日凌晨,GPT-4o 在 OpenAI 官网正式发布了,GPT-4o是一个多模态模型,能够处理视频、音频和文本数据,具有实时推理的能力。它能够执行多种任务,包括实时翻译、唱歌、做数学题和讲笑话等。GPT-4o的语音响应时间非常短,平均响应时间为320毫秒,并且在MMLU评测中创下了88.7%的新高分,超过了其他市面上的大模型。
这是正儿八经的原生多模态,更重要的是可以实时推理音频、视觉和文本,注意这里是实时,实时,实时,推理的不是文本,是音频!视觉!
某种程度上,AGI 已然成为现实,我们即将迎来一个新的时代啊!