OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互

2周前 (05-16) 0 点赞 0 收藏 0 评论 3 已阅读

5月14日上午消息,赶在Google I/O开发者大会公布 AI 产品前夕,OpenAI又来抢风头了。

北京时间5月14日凌晨,OpenAI在一则简短的视频介绍中发布了可实时进行音频、视觉和文本推理的新一代AI模型GPT-4o,并将推出PC桌面版ChatGPT。

据介绍,GPT-4o里的“o”是Omni的缩写,也就是“全能”的意思。在API使用方面,相比去年11月发布的GPT-4-turbo,GPT-4o价格下降50%,速度提升200%,未来几周内GPT-4o语音和视频输入功能也将随之推出。

此外,OpenAI还宣布,GPT4-o与ChatGPT Plus会员版所有的能力,包括视觉、联网、记忆、执行代码、GPT Store等,将对所有用户免费开放!

发布会上,OpenAI联合创始人兼总裁格雷格·布罗克曼(Greg Brockman)还将旧版本只具备对话功能的ChatGPT,与基于GPT-4o发布的具备视觉能力的新版ChatGPT进行了5分钟的对话。

对话中,新版本ChatGPT不仅能通过视觉AI能力理解摄像头中发生的事情,同时还能够将理解的内容通过语音与旧版本ChatGPT交互,进行更加丰富有趣的互动。同时还支持中途打断和对话插入,且具备上下文记忆能力。

对于此次发布,OpenAI CEO萨姆·奥尔特曼(Sam Altman)发实时推文表示,“新的GPT-4o模型是OpenAI有史以来最好的模型,它很智能,速度很快,是原生多模态,并且可供所有ChatGPT用户使用,无论是免费版本还是付费GPT-4版。”

“这对我们的使命很重要,我们希望将出色的AI工具交到每个人手中。”萨姆·奥尔特曼表示。

对于此次发布会,此前外媒传言OpenAI会发布会新的智能搜索能力,但随后出现反转——称“散布发布搜索产品系抓捕公司内部泄密者”。

此次发布会,OpenAI没有带来新的AI搜索产品,而是在虚晃一枪后发布了升级后的GPT-4o。但除了新模型的性能提升外,OpenAI此次发布,在有了更多产品性能改进之时,也出现了一些问题。

OpeanAI发布会后,便有业内专家表示,“GPT-4o的多模态能力只是看起来很好,实际上OpenAI并未展示对于视觉多模态来说真正算是突破的功能。”此外,在实时音频交互方面,目前国内诸如豆包、文心一言等产品也已具备类似通话功能。


OpenAI发布全能模型GPT-4o!速度提升200% 支持实时音视频交互

本文收录在
0评论

登录

忘记密码 ?

切换登录

注册