实测GPT5.5:最强模型不是嘴炮,它真能干活儿
GPT-5.5,终于发布。
作为OpenAI当下最强的模型,这次更新的亮点是“为真实工作而设计”。
和过去的模型相比,GPT-5.5能更快理解使用者真正想做的事情,也能自己承担更多执行过程,可以在线检索信息、分析数据、生成文档和表格、操作软件,并在不同工具之间来回切换,直到把任务完成。
用户不再需要精细地拆解每一步,可以直接给它一个混乱、多步骤的问题,让它自己规划路径、调用工具、检查结果,在不确定中继续推进。
有网友直接评价,这是目前为止最接近AGI的模型。
目前,GPT-5.5已经在ChatGPT和Codex中向Plus、Pro、团队版和企业版用户逐步开放,GPT-5.5 Pro则面向Pro及以上用户。API版本尚未上线。
模型性能
先来看看模型在基准测试中的得分情况。
其中最值得关注的指标是GDPval,这个测试不是传统选择题,而是用44种真实职业任务来评估模型,比如分析数据、写报告、做判断。

GPT-5.5的成绩是84.9%,相比GPT-5.4的83.0%,有一定的提升,也高于Claude Opus 4.7 的80.3%和Gemini 3.1 Pro的67.3%。
第二个关键测试是OSWorld,用来衡量模型在真实电脑环境中的操作能力。GPT-5.5 达到78.7%,高于GPT-5.4的75.0%,提升幅度不算夸张,但意义很大。
这项能力考验了一个更现实的问题:模型不仅能告诉你怎么做,还能不能直接替你去做,包括点击界面、切换工具、执行多步骤操作。
还有Tau2 Telecom,这是一个电信客服流程测试,GPT-5.5 在无需额外调优的情况下达到98.0%。这类任务更接近企业里的真实工作,需要在复杂、多步骤、有上下文依赖的流程中完成。
在更细分的能力上,GPT-5.5的编程能力继续提升,在Terminal-Bench 2.0上达到了82.7%,在SWE-Bench Pro上达到了58.6%。

在其他知识工作基准测试中,GPT-5.5的表现也很出色:FinanceAgent得分60.0%,内部投资银行建模任务得分88.5%,OfficeQA Pro得分54.1%。说明它在结构化分析和数据处理上已经相当成熟。
科研方面虽然分数提升相对温和,但已经出现能够参与推理、验证甚至辅助发现新结果的案例,这一点更像能力边界的变化,而不是简单的性能增长。
把这些跑分放在一起看,会发现这次模型的评价标准正在发生变化:过去我们常用MMLU、GPQA这样的指标看模型的知识和推理能力,但现在更侧重于GDPval、OSWorld这类“任务级评估”。
[物价飞涨的时候 这样省钱购物很爽]
好新闻没人评论怎么行,我来说几句
作为OpenAI当下最强的模型,这次更新的亮点是“为真实工作而设计”。
和过去的模型相比,GPT-5.5能更快理解使用者真正想做的事情,也能自己承担更多执行过程,可以在线检索信息、分析数据、生成文档和表格、操作软件,并在不同工具之间来回切换,直到把任务完成。
用户不再需要精细地拆解每一步,可以直接给它一个混乱、多步骤的问题,让它自己规划路径、调用工具、检查结果,在不确定中继续推进。
有网友直接评价,这是目前为止最接近AGI的模型。
目前,GPT-5.5已经在ChatGPT和Codex中向Plus、Pro、团队版和企业版用户逐步开放,GPT-5.5 Pro则面向Pro及以上用户。API版本尚未上线。
模型性能
先来看看模型在基准测试中的得分情况。
其中最值得关注的指标是GDPval,这个测试不是传统选择题,而是用44种真实职业任务来评估模型,比如分析数据、写报告、做判断。

GPT-5.5的成绩是84.9%,相比GPT-5.4的83.0%,有一定的提升,也高于Claude Opus 4.7 的80.3%和Gemini 3.1 Pro的67.3%。
第二个关键测试是OSWorld,用来衡量模型在真实电脑环境中的操作能力。GPT-5.5 达到78.7%,高于GPT-5.4的75.0%,提升幅度不算夸张,但意义很大。
这项能力考验了一个更现实的问题:模型不仅能告诉你怎么做,还能不能直接替你去做,包括点击界面、切换工具、执行多步骤操作。
还有Tau2 Telecom,这是一个电信客服流程测试,GPT-5.5 在无需额外调优的情况下达到98.0%。这类任务更接近企业里的真实工作,需要在复杂、多步骤、有上下文依赖的流程中完成。
在更细分的能力上,GPT-5.5的编程能力继续提升,在Terminal-Bench 2.0上达到了82.7%,在SWE-Bench Pro上达到了58.6%。

在其他知识工作基准测试中,GPT-5.5的表现也很出色:FinanceAgent得分60.0%,内部投资银行建模任务得分88.5%,OfficeQA Pro得分54.1%。说明它在结构化分析和数据处理上已经相当成熟。
科研方面虽然分数提升相对温和,但已经出现能够参与推理、验证甚至辅助发现新结果的案例,这一点更像能力边界的变化,而不是简单的性能增长。
把这些跑分放在一起看,会发现这次模型的评价标准正在发生变化:过去我们常用MMLU、GPQA这样的指标看模型的知识和推理能力,但现在更侧重于GDPval、OSWorld这类“任务级评估”。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:



