[微软] 你的Office被两个AI接管了 微软默认开启

刚刚,微软把Copilot的引擎换了,在Researcher中引入多模型智能。
从此,Copilot的Researcher智能体,默认同时调用GPT和Claude。
这不是让你手动切模型的那种“多模型”,而是GPT写完初稿,Claude自动扮演专家评审员逐条审查,审完再交付给你。
一个负责“冲锋”,一个负责“挑刺”。
微软表示,这是Microsoft 365 Copilot深度研究代理Researcher迈出的重要一步。
Researcher专为在工作流程中处理复杂研究而设计,这次通过两项全新的多模型能力:“批判”(Critique)和“智囊团”(Council),进一步提升了准确性、深度和可信度。
实测效果惊人。
在DRACO基准测试中,这套“双模型互搏”架构综合得分比此前一直被视为深度研究天花板的Perplexity Deep Research(搭载Claude Opus 4.6)高出13.8%。
但这还不是全部。
同一天上线的Copilot Cowork,微软表示是把支撑Claude Cowork的技术平台引入了Microsoft 365 Copilot,并与Work IQ、企业权限和治理体系深度整合,让AI能自主规划、跨工具推进多步任务。
这已经不是“接了个API”那么简单,而是在把外部前沿智能体能力,纳入微软自己的工作系统。
微软的牌面已摊开:不把赌注压在单一模型上,而是把Anthropic、OpenAI等前沿模型纳入Copilot的多模型编排框架。
也就是说,Copilot正在从传统AI助手,升级成一个面向企业工作的多模型执行与编排系统。
Critique让AI自己审自己的作业
过去的AI研究工作流有一个结构性盲区:规划、检索、综合、撰写全部压在一个模型上。
让模型既当运动员又当裁判,这样幻觉几乎是必然的。
微软这次给出的解法是:把“生成”和“评估”拆成两个独立角色。
具体到大模型,是让GPT负责上半场:任务规划、迭代检索、起草初稿;Claude负责下半场:以专家评审员的身份,基于结构化评价量表(Rubric)逐条审查。
这个量表主要聚焦三个维度:
来源可靠性评估,审查引用是否权威、可验证;
报告完整性,检查是否覆盖了用户请求的所有意图;
严格的证据溯源,要求每一个关键结论都锚定到带有精确引用的可靠来源。
更关键的是,审阅者的定位不是“第二作者”,而是“同行评审”。它不替你重写,而是逼你写得更好。
微软365和Copilot企业副总裁Nicole Herskowitz说:“我们不是简单地在Copilot里塞了多个模型,我们是让客户真正享受到模型协同工作的好处。”
未来这套机制还会升级为双向互审:GPT也能审Claude的稿。
Critique已经是Researcher的默认模式,无需手动开启。
其实,这算不上什么技术花活,而是把学术界运行了几百年的同行评审制度,第一次工程化地嵌进了AI系统。
用架构设计来压制幻觉,而不是一味指望单个模型变得更聪明。
DRACO跑分拆解13.8%的含金量
数据不说谎。
DRACO(深度研究准确性、完整性和客观性)是由Perplexity和学术界研究人员于2026年2月推出的基准测试,覆盖10个领域、100项复杂研究任务,全部源自真实使用场景。
每个问题经过5次独立运行取均值,评估维度包括事实准确性、分析广度和深度、表达质量、引用质量四项。
评委模型是GPT-5.2。
微软特别强调,采用了与基准论文完全一致的评估协议和配置,确保“同口径”公平对比。
搭载Critique的Researcher综合得分实现了+7.0分(SEM±1.90)的显著提升,比此前表现最好的Perplexity Deep Research高出13.88%。
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: