OpenAI新模型: 有情绪的AI出现了

图注:文本推理能力提高有限

图注:与Whisper-v3相比,GPT-4o在多种语言的识别表现优异,尤其是小语种语言

图注:GPT-4o在音频翻译表现上达到新的高水准

图注:在多项基准测试上,分数都有提高,在视觉理解的测试上,GPT-4o达到新的高水准
2、易用性的魔法:OpenAI教苹果、谷歌做语音助手
虽然在能力上,大一统的多模态模型和Gemini一样并没带来想象中的性能巨幅提升。但OpenAI明显比谷歌多走了一步:用一个统合的助手在所有场景下应用所有这些多模态。
就从这次演示来看,这一交互层面的升级才证明了多模态确实是AI的GameChanger。
更强的是手机版的GPT-4o可以通过语音能力理解你的话语,状态(累不累,喘气粗不粗)。
还能通过视觉识别你所处的环境和你正在做的事情,并对它作出反应。帮你解数学题,没问题,解完还能陪你聊聊人生。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
推荐:



