[哈佛] 哈佛重磅发现:AI诊断真实病例准确率超医生
影像诊断变便宜、变快了,于是医生开了更多检查,放射科医生反而更忙了。
哈佛这项新研究的作者们显然吸取了辛顿的教训。
论文通讯作者Manrai在新闻发布会上明确说:「我们的发现并不意味着AI取代医生,尽管有些卖AI医疗产品的公司可能会这么说。」
共同通讯作者、贝斯以色列AI项目负责人Adam Rodman则更直白:「目前AI诊断没有任何正式的问责框架。患者想要的是人来引导他们度过生死攸关的决策,引导他们面对艰难的治疗选择。」
不是「AI赢了」而是医疗决策权在重组
据美国医学会(AMA)2026年调查,超过80%的美国医生已经在职业中使用AI——是2023年的两倍。
17%的医生使用AI进行「辅助诊断」。
2025年的一项Elsevier研究发现,20%的临床医生已经在向大语言模型寻求「第二意见」。
哈佛这项研究证明,AI在信息最匮乏、决策最紧迫的急诊场景中,推理能力已经超过了人类医生。
三个数据叠加在一起,指向一个清晰的趋势:医疗决策的权力结构正在发生根本性的重组。
过去的急诊室模式是:患者进来→医生判断→做出决策。
未来的模式可能变成:患者进来→AI快速扫描电子病历给出初步判断→医生结合临床观察和AI建议做出决策→患者参与讨论治疗方案。
研究作者Rodman预测,未来会出现三种分化:一部分任务人类持续做得更好,一部分任务AI持续做得更好,还有一部分任务需要人机协作增强。
这就是研究者所说的「医生-患者-AI」三方协作模式。
听起来很像自动驾驶。
L2级别——AI辅助人类决策;L3级别——AI主导、人类监督;L4级别——特定场景全自动。
目前AI在医疗领域大概处在L2到L3之间的阶段:它已经能在「文字世界」里给出超越人类的判断,但在真实的、多模态的临床场景中,它还需要人类的眼睛、耳朵和直觉来补位。
AI误诊了,谁负责?
在所有讨论中,有一个房间里的大象无人敢正面触碰:AI出错了,谁来承担责任?
Rodman在接受《卫报》采访时坦言:目前AI诊断没有任何正式的问责框架。
如果一名医生误诊了,有成熟的医疗纠纷处理体系——患者可以投诉、可以诉讼、医生面临执照风险。
但如果AI给出了错误建议,医生采纳了,患者受到了伤害——是算医生的责任?AI公司的责任?医院的责任?还是三方共担?
更复杂的场景是:如果AI给出了正确建议,但医生否决了AI的判断、坚持自己的错误诊断,导致患者延误治疗——此时医生要不要为「忽视A建议」承担额外责任?
还有一个更隐蔽的风险:过度依赖。
当医生习惯了AI给出的高准确率判断,他们的独立思考能力会不会退化?就像GPS让很多人丧失了自主导航能力一样,AI辅助诊断是否会让医生的临床推理「肌肉」逐渐萎缩?
这些问题,目前没有任何国家有清晰的答案。
参考资料:
https://www.science.org/doi/10.1126/science.adz4433
https://www.harvardmagazine.com/ai/ai-outperforms-doctors-diagnosis-harvard-study
[物价飞涨的时候 这样省钱购物很爽]
这条新闻还没有人评论喔,等着您的高见呢
哈佛这项新研究的作者们显然吸取了辛顿的教训。
论文通讯作者Manrai在新闻发布会上明确说:「我们的发现并不意味着AI取代医生,尽管有些卖AI医疗产品的公司可能会这么说。」
共同通讯作者、贝斯以色列AI项目负责人Adam Rodman则更直白:「目前AI诊断没有任何正式的问责框架。患者想要的是人来引导他们度过生死攸关的决策,引导他们面对艰难的治疗选择。」
不是「AI赢了」而是医疗决策权在重组
据美国医学会(AMA)2026年调查,超过80%的美国医生已经在职业中使用AI——是2023年的两倍。
17%的医生使用AI进行「辅助诊断」。
2025年的一项Elsevier研究发现,20%的临床医生已经在向大语言模型寻求「第二意见」。
哈佛这项研究证明,AI在信息最匮乏、决策最紧迫的急诊场景中,推理能力已经超过了人类医生。
三个数据叠加在一起,指向一个清晰的趋势:医疗决策的权力结构正在发生根本性的重组。
过去的急诊室模式是:患者进来→医生判断→做出决策。
未来的模式可能变成:患者进来→AI快速扫描电子病历给出初步判断→医生结合临床观察和AI建议做出决策→患者参与讨论治疗方案。
研究作者Rodman预测,未来会出现三种分化:一部分任务人类持续做得更好,一部分任务AI持续做得更好,还有一部分任务需要人机协作增强。
这就是研究者所说的「医生-患者-AI」三方协作模式。
听起来很像自动驾驶。
L2级别——AI辅助人类决策;L3级别——AI主导、人类监督;L4级别——特定场景全自动。
目前AI在医疗领域大概处在L2到L3之间的阶段:它已经能在「文字世界」里给出超越人类的判断,但在真实的、多模态的临床场景中,它还需要人类的眼睛、耳朵和直觉来补位。
AI误诊了,谁负责?
在所有讨论中,有一个房间里的大象无人敢正面触碰:AI出错了,谁来承担责任?
Rodman在接受《卫报》采访时坦言:目前AI诊断没有任何正式的问责框架。
如果一名医生误诊了,有成熟的医疗纠纷处理体系——患者可以投诉、可以诉讼、医生面临执照风险。
但如果AI给出了错误建议,医生采纳了,患者受到了伤害——是算医生的责任?AI公司的责任?医院的责任?还是三方共担?
更复杂的场景是:如果AI给出了正确建议,但医生否决了AI的判断、坚持自己的错误诊断,导致患者延误治疗——此时医生要不要为「忽视A建议」承担额外责任?
还有一个更隐蔽的风险:过度依赖。
当医生习惯了AI给出的高准确率判断,他们的独立思考能力会不会退化?就像GPS让很多人丧失了自主导航能力一样,AI辅助诊断是否会让医生的临床推理「肌肉」逐渐萎缩?
这些问题,目前没有任何国家有清晰的答案。
参考资料:
https://www.science.org/doi/10.1126/science.adz4433
https://www.harvardmagazine.com/ai/ai-outperforms-doctors-diagnosis-harvard-study
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: