[英國] 2026年與黑幫合作,英國衛生部門最後的稻草
每年聖誕節,著名的《英國醫學雜志》(British Medical Journal, BMJ)都會推出壹期“聖誕特刊”,壹反嚴肅醫學期刊的常態,刊發壹系列有點莫名其妙,卻有著壹本正經科學論文形式的文章。
論文能有多有趣?我們精選了今年特刊中的4篇文章,看完你就知道了。
與黑幫合作吧,加強物流、影響和降本增效
這篇文章來自倫敦的公共衛生教授馬丁·麥基(Martin McKee),他提出了壹個荒誕提議:2026年,讓公共衛生界大膽壹點,與犯罪集團合作吧!學習黑幫超強的物流、影響力和降本增效能力。
作者提出,如果放下道德潔癖,客觀審視有組織犯罪集團(如黑手黨、毒販),會發現他們擁有許多讓英國政府衛生部門望塵莫及的優勢。
犯罪集團的核心優勢之壹是物流和供應鏈管理能力。無論是跨境販賣人口,還是把毒品運到目標地點,他們都能快速高效地完成任務。這對衛生部門迅速送達醫療物資、危機緊急救援有很多啟示。
建立影響力,也是衛生部門要向犯罪集團學習的。黑幫擅長獲取信任和利用恐懼,他們能夠收到保護費,是因為人們真的相信自己可以得到保護,而且不交就會挨打。想想,如果壹個黑幫頭目建議你打流感疫苗,你會說不嗎?另外,犯罪集團還能影響衛生部門難以觸達的群體,比如吸毒、無家可歸的人。
最後是降本增效,如果衛生部門與犯罪集團合作,將會比與合法公司簽訂協議更便宜,畢竟犯罪集團不繳稅。黑幫解決爭端、維持秩序和提供服務也非常高效。
當然,作者並非真的呼吁與黑幫結盟,而是借此諷刺英國公共衛生界對煙草、酒精等危害健康行業的妥協,以及工作低效成本高、影響力不足等。

圖 |圖蟲創意
多久才算“最近”?37年也算
在學術論文裡,你壹定見過這樣的句式:“最新研究表明”、“近期證據顯示”。乍壹看,你壹定覺得論文作者引用了剛出爐的文獻、熱乎著的證據,但真相並非如此。
在這篇聖誕特刊的論文中,作者在PubMed(生物醫學文獻數據庫)中進行了結構化搜索,篩選出了壹千篇生物醫學論文,然後把這些論文中“recent(最近)”後面的參考文獻找出來,計算了時間差。
結果顯示,被標為“近期”的研究,引用時距離其發表,時間跨度在0~37年之間,平均5.53年,中位數4年。其中有177篇(17.7%)文獻在被引用時已發表超過10年,26篇(2.6%)被稱為“近期”的研究發布時間在20年以上,而那篇跨度37年的文獻發布於1988年,2025年被引用時仍被描述為“最近”。
另外,這種現象還存在壹定的學科差異。其中,重症、感染、遺傳、免疫和影像領域,滯後中位數約2年;而腎內、獸醫和口腔領域達到8.5~14年,表明這些領域對“最近”的理解更為廣泛。
作者指出,“recent”在學術寫作裡不是時間的衡量標准,而更像是壹種敘述手法。不過值得慶幸的是,在2020~2025年新發表的文章中,“recent”的滯後中位數已縮至2.5年,有提速態勢。
作者也並不主張廢除此類描述,而是呼吁論文作者們下筆前想想:是真的“最近”,還是只是“聽起來最近”。讀者與審稿人也要多長壹個心眼,“recent”到底是什麼時候,別讓文字騙了。
醫生和AI胡說八道,背後的原因竟然壹樣
在醫院裡,常能見到這樣的場景:查房時,住院醫生突然被主任提問,明明不會,卻硬著頭皮編了壹套“自洽”的解釋;又或者患者咨詢時,醫生在並不確定的情況下,仍會自信地給出回答或建議。以上這些情況被稱為medical bullshit,指醫療領域中缺乏科學依據、誤導性或欺詐性的說法、行為等。
與此同時,大語言模型(LLM)也會產出看似合理但事實錯誤的信息,比如把從沒發生過的事情,用壹本正經的口吻說出來,甚至有頭有尾,有時間、地點、人物等。這便是所謂的AI幻覺(hallucinations)。
這篇文章的作者們指出,這兩種“謊言”背後有共同的推手,或者說根源相同——醫生和AI都面臨著“必須給出答案”的結構性壓力。
具體來說,在醫學領域,醫生沉默容易被視為“無能”;上級、患者也更喜歡自信滿滿、對答如流的醫生;另外醫生的職稱晉升與論文數量掛鉤,當論文研究結果是陰性時,可能不好發表,於是便可能出現美化數據的情況。
在AI領域,壹切是相似的。大語言模型被設定為“有輸入,就必須有輸出”;用戶也更喜歡回復迅速、完整,答案看起來專業度高的AI;同時日活量也和模型的融資、商業價值直接綁定。
研究作者指出,這兩種謊言是危險的,甚至會互相喂料——比如有問題的論文成為AI的訓練資料,AI再生成有幻覺的內容,新的醫生引用,閉環達成,而最終受害的是患者甚至整個醫療體系。
要改變這種情況,作者認為要允許醫生和AI“不知道”,比如臨床考核可以把“承認不知道、不確定”作為加分項,當證據不足時,模型也可以明確回答“資料有限,無法推薦”。此外,公開訓練語料、學術期刊能同等發表陰性結果,也有助於減少兩類謊言。
年輕人流行孤獨病,AI聊天機器人是藥是毒?
AI聊天機器人,正越來越多地被當作“知己”。人們獲得情感支持更便捷了,但同時,它對孤獨的影響也引發了擔憂。
美國壹項報告指出,孤獨使過早死亡風險增加26%,對總體健康的影響相當於每天吸煙15支。在英國,近壹半成年人經歷過孤獨,拾人中就有壹人經常感到孤獨。BBC孤獨實驗發現,16~24歲、單身、健康狀況差和缺乏歸屬感的人,孤獨風險尤其高。不過,心理健康服務等待時間很長。
因此,許多人開始使用聊天機器人陪伴自己、提供情感支持。現在的聊天機器人經過深度學習與專門訓練,可以做到對話與真人非常相似,並且容易使用、有耐心。
壹項研究發現,叁分之壹青少年會用AI進行社交互動,拾分之壹認為AI對話比真人更讓人滿意。也有研究支持,經過與AI聊天機器人的對話,受試者的抑郁、焦慮、飲食障礙和痛苦症狀有所減輕。
然而,視線轉向長期實際使用時,研究者發現使用ChatGPT次數最多的人,孤獨感最強、社交最少。雖然這不能說明聊天機器人有害,但人們逐漸意識到,使用它們對社會情感發展的長期影響還不明確,將聊天機器人視為朋友可能帶來潛在的風險。
作者認為,未來我們需要更多研究去探索人類與AI聊天機器人對話的影響,利用研究結果識別經歷孤獨的人、每個人最適合的支持方式,並給予孤獨者鼓勵、指導和支持。
與任何新技術壹樣,也許AI幫助人們建立真實的人際關系,而不是取代,才是緩解孤獨的理想方式。

今年的聖誕特刊精選就到這裡了,讓我們期待明年的有趣文章吧。
[加西網正招聘多名全職sales 待遇優]
這條新聞還沒有人評論喔,等著您的高見呢
論文能有多有趣?我們精選了今年特刊中的4篇文章,看完你就知道了。
與黑幫合作吧,加強物流、影響和降本增效
這篇文章來自倫敦的公共衛生教授馬丁·麥基(Martin McKee),他提出了壹個荒誕提議:2026年,讓公共衛生界大膽壹點,與犯罪集團合作吧!學習黑幫超強的物流、影響力和降本增效能力。
作者提出,如果放下道德潔癖,客觀審視有組織犯罪集團(如黑手黨、毒販),會發現他們擁有許多讓英國政府衛生部門望塵莫及的優勢。
犯罪集團的核心優勢之壹是物流和供應鏈管理能力。無論是跨境販賣人口,還是把毒品運到目標地點,他們都能快速高效地完成任務。這對衛生部門迅速送達醫療物資、危機緊急救援有很多啟示。
建立影響力,也是衛生部門要向犯罪集團學習的。黑幫擅長獲取信任和利用恐懼,他們能夠收到保護費,是因為人們真的相信自己可以得到保護,而且不交就會挨打。想想,如果壹個黑幫頭目建議你打流感疫苗,你會說不嗎?另外,犯罪集團還能影響衛生部門難以觸達的群體,比如吸毒、無家可歸的人。
最後是降本增效,如果衛生部門與犯罪集團合作,將會比與合法公司簽訂協議更便宜,畢竟犯罪集團不繳稅。黑幫解決爭端、維持秩序和提供服務也非常高效。
當然,作者並非真的呼吁與黑幫結盟,而是借此諷刺英國公共衛生界對煙草、酒精等危害健康行業的妥協,以及工作低效成本高、影響力不足等。

圖 |圖蟲創意
多久才算“最近”?37年也算
在學術論文裡,你壹定見過這樣的句式:“最新研究表明”、“近期證據顯示”。乍壹看,你壹定覺得論文作者引用了剛出爐的文獻、熱乎著的證據,但真相並非如此。
在這篇聖誕特刊的論文中,作者在PubMed(生物醫學文獻數據庫)中進行了結構化搜索,篩選出了壹千篇生物醫學論文,然後把這些論文中“recent(最近)”後面的參考文獻找出來,計算了時間差。
結果顯示,被標為“近期”的研究,引用時距離其發表,時間跨度在0~37年之間,平均5.53年,中位數4年。其中有177篇(17.7%)文獻在被引用時已發表超過10年,26篇(2.6%)被稱為“近期”的研究發布時間在20年以上,而那篇跨度37年的文獻發布於1988年,2025年被引用時仍被描述為“最近”。
另外,這種現象還存在壹定的學科差異。其中,重症、感染、遺傳、免疫和影像領域,滯後中位數約2年;而腎內、獸醫和口腔領域達到8.5~14年,表明這些領域對“最近”的理解更為廣泛。
作者指出,“recent”在學術寫作裡不是時間的衡量標准,而更像是壹種敘述手法。不過值得慶幸的是,在2020~2025年新發表的文章中,“recent”的滯後中位數已縮至2.5年,有提速態勢。
作者也並不主張廢除此類描述,而是呼吁論文作者們下筆前想想:是真的“最近”,還是只是“聽起來最近”。讀者與審稿人也要多長壹個心眼,“recent”到底是什麼時候,別讓文字騙了。
醫生和AI胡說八道,背後的原因竟然壹樣
在醫院裡,常能見到這樣的場景:查房時,住院醫生突然被主任提問,明明不會,卻硬著頭皮編了壹套“自洽”的解釋;又或者患者咨詢時,醫生在並不確定的情況下,仍會自信地給出回答或建議。以上這些情況被稱為medical bullshit,指醫療領域中缺乏科學依據、誤導性或欺詐性的說法、行為等。
與此同時,大語言模型(LLM)也會產出看似合理但事實錯誤的信息,比如把從沒發生過的事情,用壹本正經的口吻說出來,甚至有頭有尾,有時間、地點、人物等。這便是所謂的AI幻覺(hallucinations)。
這篇文章的作者們指出,這兩種“謊言”背後有共同的推手,或者說根源相同——醫生和AI都面臨著“必須給出答案”的結構性壓力。
具體來說,在醫學領域,醫生沉默容易被視為“無能”;上級、患者也更喜歡自信滿滿、對答如流的醫生;另外醫生的職稱晉升與論文數量掛鉤,當論文研究結果是陰性時,可能不好發表,於是便可能出現美化數據的情況。
在AI領域,壹切是相似的。大語言模型被設定為“有輸入,就必須有輸出”;用戶也更喜歡回復迅速、完整,答案看起來專業度高的AI;同時日活量也和模型的融資、商業價值直接綁定。
研究作者指出,這兩種謊言是危險的,甚至會互相喂料——比如有問題的論文成為AI的訓練資料,AI再生成有幻覺的內容,新的醫生引用,閉環達成,而最終受害的是患者甚至整個醫療體系。
要改變這種情況,作者認為要允許醫生和AI“不知道”,比如臨床考核可以把“承認不知道、不確定”作為加分項,當證據不足時,模型也可以明確回答“資料有限,無法推薦”。此外,公開訓練語料、學術期刊能同等發表陰性結果,也有助於減少兩類謊言。
年輕人流行孤獨病,AI聊天機器人是藥是毒?
AI聊天機器人,正越來越多地被當作“知己”。人們獲得情感支持更便捷了,但同時,它對孤獨的影響也引發了擔憂。
美國壹項報告指出,孤獨使過早死亡風險增加26%,對總體健康的影響相當於每天吸煙15支。在英國,近壹半成年人經歷過孤獨,拾人中就有壹人經常感到孤獨。BBC孤獨實驗發現,16~24歲、單身、健康狀況差和缺乏歸屬感的人,孤獨風險尤其高。不過,心理健康服務等待時間很長。
因此,許多人開始使用聊天機器人陪伴自己、提供情感支持。現在的聊天機器人經過深度學習與專門訓練,可以做到對話與真人非常相似,並且容易使用、有耐心。
壹項研究發現,叁分之壹青少年會用AI進行社交互動,拾分之壹認為AI對話比真人更讓人滿意。也有研究支持,經過與AI聊天機器人的對話,受試者的抑郁、焦慮、飲食障礙和痛苦症狀有所減輕。
然而,視線轉向長期實際使用時,研究者發現使用ChatGPT次數最多的人,孤獨感最強、社交最少。雖然這不能說明聊天機器人有害,但人們逐漸意識到,使用它們對社會情感發展的長期影響還不明確,將聊天機器人視為朋友可能帶來潛在的風險。
作者認為,未來我們需要更多研究去探索人類與AI聊天機器人對話的影響,利用研究結果識別經歷孤獨的人、每個人最適合的支持方式,並給予孤獨者鼓勵、指導和支持。
與任何新技術壹樣,也許AI幫助人們建立真實的人際關系,而不是取代,才是緩解孤獨的理想方式。

今年的聖誕特刊精選就到這裡了,讓我們期待明年的有趣文章吧。
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: |
| 延伸閱讀 | 更多... |
推薦: