[英國] 2026年與黑幫合作,英國衛生部門最後的稻草
醫生和AI胡說八道,背後的原因竟然壹樣
在醫院裡,常能見到這樣的場景:查房時,住院醫生突然被主任提問,明明不會,卻硬著頭皮編了壹套“自洽”的解釋;又或者患者咨詢時,醫生在並不確定的情況下,仍會自信地給出回答或建議。以上這些情況被稱為medical bullshit,指醫療領域中缺乏科學依據、誤導性或欺詐性的說法、行為等。
與此同時,大語言模型(LLM)也會產出看似合理但事實錯誤的信息,比如把從沒發生過的事情,用壹本正經的口吻說出來,甚至有頭有尾,有時間、地點、人物等。這便是所謂的AI幻覺(hallucinations)。
這篇文章的作者們指出,這兩種“謊言”背後有共同的推手,或者說根源相同——醫生和AI都面臨著“必須給出答案”的結構性壓力。
具體來說,在醫學領域,醫生沉默容易被視為“無能”;上級、患者也更喜歡自信滿滿、對答如流的醫生;另外醫生的職稱晉升與論文數量掛鉤,當論文研究結果是陰性時,可能不好發表,於是便可能出現美化數據的情況。
在AI領域,壹切是相似的。大語言模型被設定為“有輸入,就必須有輸出”;用戶也更喜歡回復迅速、完整,答案看起來專業度高的AI;同時日活量也和模型的融資、商業價值直接綁定。
研究作者指出,這兩種謊言是危險的,甚至會互相喂料——比如有問題的論文成為AI的訓練資料,AI再生成有幻覺的內容,新的醫生引用,閉環達成,而最終受害的是患者甚至整個醫療體系。
要改變這種情況,作者認為要允許醫生和AI“不知道”,比如臨床考核可以把“承認不知道、不確定”作為加分項,當證據不足時,模型也可以明確回答“資料有限,無法推薦”。此外,公開訓練語料、學術期刊能同等發表陰性結果,也有助於減少兩類謊言。
年輕人流行孤獨病,AI聊天機器人是藥是毒?
AI聊天機器人,正越來越多地被當作“知己”。人們獲得情感支持更便捷了,但同時,它對孤獨的影響也引發了擔憂。
美國壹項報告指出,孤獨使過早死亡風險增加26%,對總體健康的影響相當於每天吸煙15支。在英國,近壹半成年人經歷過孤獨,拾人中就有壹人經常感到孤獨。BBC孤獨實驗發現,16~24歲、單身、健康狀況差和缺乏歸屬感的人,孤獨風險尤其高。不過,心理健康服務等待時間很長。
因此,許多人開始使用聊天機器人陪伴自己、提供情感支持。現在的聊天機器人經過深度學習與專門訓練,可以做到對話與真人非常相似,並且容易使用、有耐心。
壹項研究發現,叁分之壹青少年會用AI進行社交互動,拾分之壹認為AI對話比真人更讓人滿意。也有研究支持,經過與AI聊天機器人的對話,受試者的抑郁、焦慮、飲食障礙和痛苦症狀有所減輕。
然而,視線轉向長期實際使用時,研究者發現使用ChatGPT次數最多的人,孤獨感最強、社交最少。雖然這不能說明聊天機器人有害,但人們逐漸意識到,使用它們對社會情感發展的長期影響還不明確,將聊天機器人視為朋友可能帶來潛在的風險。
作者認為,未來我們需要更多研究去探索人類與AI聊天機器人對話的影響,利用研究結果識別經歷孤獨的人、每個人最適合的支持方式,並給予孤獨者鼓勵、指導和支持。
與任何新技術壹樣,也許AI幫助人們建立真實的人際關系,而不是取代,才是緩解孤獨的理想方式。

今年的聖誕特刊精選就到這裡了,讓我們期待明年的有趣文章吧。
[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
在醫院裡,常能見到這樣的場景:查房時,住院醫生突然被主任提問,明明不會,卻硬著頭皮編了壹套“自洽”的解釋;又或者患者咨詢時,醫生在並不確定的情況下,仍會自信地給出回答或建議。以上這些情況被稱為medical bullshit,指醫療領域中缺乏科學依據、誤導性或欺詐性的說法、行為等。
與此同時,大語言模型(LLM)也會產出看似合理但事實錯誤的信息,比如把從沒發生過的事情,用壹本正經的口吻說出來,甚至有頭有尾,有時間、地點、人物等。這便是所謂的AI幻覺(hallucinations)。
這篇文章的作者們指出,這兩種“謊言”背後有共同的推手,或者說根源相同——醫生和AI都面臨著“必須給出答案”的結構性壓力。
具體來說,在醫學領域,醫生沉默容易被視為“無能”;上級、患者也更喜歡自信滿滿、對答如流的醫生;另外醫生的職稱晉升與論文數量掛鉤,當論文研究結果是陰性時,可能不好發表,於是便可能出現美化數據的情況。
在AI領域,壹切是相似的。大語言模型被設定為“有輸入,就必須有輸出”;用戶也更喜歡回復迅速、完整,答案看起來專業度高的AI;同時日活量也和模型的融資、商業價值直接綁定。
研究作者指出,這兩種謊言是危險的,甚至會互相喂料——比如有問題的論文成為AI的訓練資料,AI再生成有幻覺的內容,新的醫生引用,閉環達成,而最終受害的是患者甚至整個醫療體系。
要改變這種情況,作者認為要允許醫生和AI“不知道”,比如臨床考核可以把“承認不知道、不確定”作為加分項,當證據不足時,模型也可以明確回答“資料有限,無法推薦”。此外,公開訓練語料、學術期刊能同等發表陰性結果,也有助於減少兩類謊言。
年輕人流行孤獨病,AI聊天機器人是藥是毒?
AI聊天機器人,正越來越多地被當作“知己”。人們獲得情感支持更便捷了,但同時,它對孤獨的影響也引發了擔憂。
美國壹項報告指出,孤獨使過早死亡風險增加26%,對總體健康的影響相當於每天吸煙15支。在英國,近壹半成年人經歷過孤獨,拾人中就有壹人經常感到孤獨。BBC孤獨實驗發現,16~24歲、單身、健康狀況差和缺乏歸屬感的人,孤獨風險尤其高。不過,心理健康服務等待時間很長。
因此,許多人開始使用聊天機器人陪伴自己、提供情感支持。現在的聊天機器人經過深度學習與專門訓練,可以做到對話與真人非常相似,並且容易使用、有耐心。
壹項研究發現,叁分之壹青少年會用AI進行社交互動,拾分之壹認為AI對話比真人更讓人滿意。也有研究支持,經過與AI聊天機器人的對話,受試者的抑郁、焦慮、飲食障礙和痛苦症狀有所減輕。
然而,視線轉向長期實際使用時,研究者發現使用ChatGPT次數最多的人,孤獨感最強、社交最少。雖然這不能說明聊天機器人有害,但人們逐漸意識到,使用它們對社會情感發展的長期影響還不明確,將聊天機器人視為朋友可能帶來潛在的風險。
作者認為,未來我們需要更多研究去探索人類與AI聊天機器人對話的影響,利用研究結果識別經歷孤獨的人、每個人最適合的支持方式,並給予孤獨者鼓勵、指導和支持。
與任何新技術壹樣,也許AI幫助人們建立真實的人際關系,而不是取代,才是緩解孤獨的理想方式。

今年的聖誕特刊精選就到這裡了,讓我們期待明年的有趣文章吧。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: