[哈佛] 哈佛重磅發現:AI診斷真實病例准確率超醫生
影像診斷變便宜、變快了,於是醫生開了更多檢查,放射科醫生反而更忙了。
哈佛這項新研究的作者們顯然吸取了辛頓的教訓。
論文通訊作者Manrai在新聞發布會上明確說:「我們的發現並不意味著AI取代醫生,盡管有些賣AI醫療產品的公司可能會這麼說。」
共同通訊作者、貝斯以色列AI項目負責人Adam Rodman則更直白:「目前AI診斷沒有任何正式的問責框架。患者想要的是人來引導他們度過生死攸關的決策,引導他們面對艱難的治療選擇。」
不是「AI贏了」而是醫療決策權在重組
據美國醫學會(AMA)2026年調查,超過80%的美國醫生已經在職業中使用AI——是2023年的兩倍。
17%的醫生使用AI進行「輔助診斷」。
2025年的壹項Elsevier研究發現,20%的臨床醫生已經在向大語言模型尋求「第贰意見」。
哈佛這項研究證明,AI在信息最匱乏、決策最緊迫的急診場景中,推理能力已經超過了人類醫生。
叁個數據疊加在壹起,指向壹個清晰的趨勢:醫療決策的權力結構正在發生根本性的重組。
過去的急診室模式是:患者進來→醫生判斷→做出決策。
未來的模式可能變成:患者進來→AI快速掃描電子病歷給出初步判斷→醫生結合臨床觀察和AI建議做出決策→患者參與討論治療方案。
研究作者Rodman預測,未來會出現叁種分化:壹部分任務人類持續做得更好,壹部分任務AI持續做得更好,還有壹部分任務需要人機協作增強。
這就是研究者所說的「醫生-患者-AI」叁方協作模式。
聽起來很像自動駕駛。
L2級別——AI輔助人類決策;L3級別——AI主導、人類監督;L4級別——特定場景全自動。
目前AI在醫療領域大概處在L2到L3之間的階段:它已經能在「文字世界」裡給出超越人類的判斷,但在真實的、多模態的臨床場景中,它還需要人類的眼睛、耳朵和直覺來補位。
AI誤診了,誰負責?
在所有討論中,有壹個房間裡的大象無人敢正面觸碰:AI出錯了,誰來承擔責任?
Rodman在接受《衛報》采訪時坦言:目前AI診斷沒有任何正式的問責框架。
如果壹名醫生誤診了,有成熟的醫療糾紛處理體系——患者可以投訴、可以訴訟、醫生面臨執照風險。
但如果AI給出了錯誤建議,醫生采納了,患者受到了傷害——是算醫生的責任?AI公司的責任?醫院的責任?還是叁方共擔?
更復雜的場景是:如果AI給出了正確建議,但醫生否決了AI的判斷、堅持自己的錯誤診斷,導致患者延誤治療——此時醫生要不要為「忽視A建議」承擔額外責任?
還有壹個更隱蔽的風險:過度依賴。
當醫生習慣了AI給出的高准確率判斷,他們的獨立思考能力會不會退化?就像GPS讓很多人喪失了自主導航能力壹樣,AI輔助診斷是否會讓醫生的臨床推理「肌肉」逐漸萎縮?
這些問題,目前沒有任何國家有清晰的答案。
參考資料:
https://www.science.org/doi/10.1126/science.adz4433
https://www.harvardmagazine.com/ai/ai-outperforms-doctors-diagnosis-harvard-study
[物價飛漲的時候 這樣省錢購物很爽]
好新聞沒人評論怎麼行,我來說幾句
哈佛這項新研究的作者們顯然吸取了辛頓的教訓。
論文通訊作者Manrai在新聞發布會上明確說:「我們的發現並不意味著AI取代醫生,盡管有些賣AI醫療產品的公司可能會這麼說。」
共同通訊作者、貝斯以色列AI項目負責人Adam Rodman則更直白:「目前AI診斷沒有任何正式的問責框架。患者想要的是人來引導他們度過生死攸關的決策,引導他們面對艱難的治療選擇。」
不是「AI贏了」而是醫療決策權在重組
據美國醫學會(AMA)2026年調查,超過80%的美國醫生已經在職業中使用AI——是2023年的兩倍。
17%的醫生使用AI進行「輔助診斷」。
2025年的壹項Elsevier研究發現,20%的臨床醫生已經在向大語言模型尋求「第贰意見」。
哈佛這項研究證明,AI在信息最匱乏、決策最緊迫的急診場景中,推理能力已經超過了人類醫生。
叁個數據疊加在壹起,指向壹個清晰的趨勢:醫療決策的權力結構正在發生根本性的重組。
過去的急診室模式是:患者進來→醫生判斷→做出決策。
未來的模式可能變成:患者進來→AI快速掃描電子病歷給出初步判斷→醫生結合臨床觀察和AI建議做出決策→患者參與討論治療方案。
研究作者Rodman預測,未來會出現叁種分化:壹部分任務人類持續做得更好,壹部分任務AI持續做得更好,還有壹部分任務需要人機協作增強。
這就是研究者所說的「醫生-患者-AI」叁方協作模式。
聽起來很像自動駕駛。
L2級別——AI輔助人類決策;L3級別——AI主導、人類監督;L4級別——特定場景全自動。
目前AI在醫療領域大概處在L2到L3之間的階段:它已經能在「文字世界」裡給出超越人類的判斷,但在真實的、多模態的臨床場景中,它還需要人類的眼睛、耳朵和直覺來補位。
AI誤診了,誰負責?
在所有討論中,有壹個房間裡的大象無人敢正面觸碰:AI出錯了,誰來承擔責任?
Rodman在接受《衛報》采訪時坦言:目前AI診斷沒有任何正式的問責框架。
如果壹名醫生誤診了,有成熟的醫療糾紛處理體系——患者可以投訴、可以訴訟、醫生面臨執照風險。
但如果AI給出了錯誤建議,醫生采納了,患者受到了傷害——是算醫生的責任?AI公司的責任?醫院的責任?還是叁方共擔?
更復雜的場景是:如果AI給出了正確建議,但醫生否決了AI的判斷、堅持自己的錯誤診斷,導致患者延誤治療——此時醫生要不要為「忽視A建議」承擔額外責任?
還有壹個更隱蔽的風險:過度依賴。
當醫生習慣了AI給出的高准確率判斷,他們的獨立思考能力會不會退化?就像GPS讓很多人喪失了自主導航能力壹樣,AI輔助診斷是否會讓醫生的臨床推理「肌肉」逐漸萎縮?
這些問題,目前沒有任何國家有清晰的答案。
參考資料:
https://www.science.org/doi/10.1126/science.adz4433
https://www.harvardmagazine.com/ai/ai-outperforms-doctors-diagnosis-harvard-study
[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦:



