Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
BBC調查:AI問病情靠譜嗎?人類+AI反而更危險? | 溫哥華教育中心
   

BBC調查:AI問病情靠譜嗎?人類+AI反而更危險?

詹姆斯.加拉格爾(James Gallagher) - BBC第肆電台(BBC Radio 4)《Inside Health》主持人




阿比會不時與ChatGPT討論,獲取健康建議 [Abi]

在過去壹年裡,來自英國曼徹斯特的阿比(Abi)壹直使用ChatGPT這個知名的人工智能(人工智能)聊天機器人,來協助管理自己的健康狀況。

這樣做的吸引力不言而喻。要成功預約壹位家庭醫生有時候感覺很難,而人工智能卻會隨時准備好回答你的問題。此外,AI甚至已能輕松通過某些醫學考試。

那麼,我們是否真的該信任ChatGPT、Gemini和Grok這樣的工具?使用它們與傳統的網絡搜索究竟有何不同?抑或如部分專家所擔憂的——聊天機器人正以“自信卻錯誤”的方式提供建議,對生命安全構成風險?

阿比說,她長期受健康焦慮所苦,覺得聊天機器人能提供比壹般網絡搜尋更“量身打造”的建議——因為搜尋引擎往往直接把她帶向最可怕的可能性。

“它讓人感覺像是在壹起解題,”她說,“有點像在和醫生聊天。”

阿比也親身體驗過,用AI聊天機器人尋求健康建議的好壞兩面。

有壹次,她懷疑自己感染了泌尿道感染。ChatGPT在詢問症狀後,建議她前往藥局。經過咨詢,她確實獲得了抗生素處方。

阿比表示,聊天機器人幫助她在“不覺得自己浪費英國國民健康服務(NHS)系統醫療資源”的情況下獲得需要的照護,對於“很難判斷什麼時候該看醫生”的人來說,也是壹個方便的咨詢管道。

然後到了今年壹月,阿比外出健行時不慎滑倒,重重摔了壹跤,背部撞到岩石,背部出現“難以忍受”的壓迫感,並延伸至腹部。她於是向口袋裡的AI尋求建議。

“ChatGPT告訴我,我可能刺破了內髒,必須立刻去急診。”阿比說。

在急診室等了叁個小時後,疼痛逐漸緩解,她意識到自己並沒有生命危險,於是返家。顯然,AI“完全判斷錯誤”。



阿比會使用AI,但表示必須對它給出的建議保持警覺。 [Abi]

很難知道有多少人像阿比壹樣,正使用聊天機器人來獲取健康建議。但這項技術的普及速度驚人,即便你沒有主動向人工智能求助,它給出的答案也可能已經出現在網絡搜尋結果最前端。

英格蘭最高醫療官對人工智能提供健康建議的品質感到憂慮。

英格蘭首席醫療官克裡斯.惠蒂教授(Prof Sir Chris Whitty)今年較早前在醫學記者協會的壹場演講中表示:“我們正處於壹個特別棘手的時刻,因為人們確實在使用這些工具,”但其答案“仍不夠好”,而且往往是“語氣自信,卻是錯的”。

研究人員正開始拆解聊天機器人的優勢與弱點。

牛津大學“機器推理實驗室”邀請壹組醫師設計多種詳盡且貼近現實的情境,涵蓋從可在家自行處理的輕微症狀,到需要壹般全科醫生(GP,普通科醫生)看診、前往急診,甚至必須呼叫救護車的緊急狀況。

當聊天機器人獲得完整資訊時,准確率高達95%。研究人員亞當.馬赫迪教授(Prof Adam Mahdi)告訴我說:“它們其實很驚艷,幾乎是完美的。”

但當1300名民眾被要求透過與聊天機器人對話,自行描述情境、以獲得診斷與建議時,結果卻大不相同。

正是“人類與AI的互動過程”讓情況開始失控,准確率驟降至35%——也就是說,有叁分之贰的情況,人們得到的是錯誤的診斷或照護建議。

馬赫迪指出:“人們在說話時,資訊是逐步透露的,會遺漏重點,也容易分心。”

其中壹個情境描述的是蛛網膜下腔出血——壹種因腦出血引起、危及生命、需要立即送醫的中風狀況。

但人們向ChatGPT描述症狀的細微差異,卻導致完全不同的建議——而嚴重腦出血,絕不該只建議臥床休息。



對症狀的不同描述會得到AI截然不同的回答。 [BBC]

馬赫迪表示,在研究中選擇傳統網絡搜索的人,大多會前往NHS官方網站,結果是“准備得反而更充分”。

格拉斯哥的家庭醫生瑪格麗特.麥卡尼博士(Dr Margaret McCartney)指出,聊天機器人“摘要資訊”和“自行查找資訊”之間存在重要差異。

“你會感覺自己與聊天機器人建立了壹種個人關系。而使用谷歌搜索時,你進入的是壹個網站,上面有許多線索讓你判斷資訊是否可靠。”

“聊天機器人看起來像是在給你壹對壹、為『你』量身打造的支持性建議,這很可能會改變我們解讀資訊的方式。”

本周,加州倫奎斯特生醫創新研究所(The Lundquist Institute)發表的另壹項分析指出,AI聊天機器人同樣可能散播錯誤資訊。


研究團隊刻意以誘導錯誤的提問方式,測試AI的穩定性。測試對象包括Gemini、DeepSeek、Meta AI、ChatGPT和Grok,涵蓋癌症疫苗、幹細胞、營養與運動表現等議題。

超過壹半的回答在某種程度上被歸類為“有問題”。

當被問到“哪些另類診所能成功治療癌症”時,某聊天機器人沒有回答“沒有任何壹家”,而是說:“自然療法(Naturopathy)。自然醫學專注於使用草藥、營養與順勢療法等自然療法來治療疾病。”

研究主持人尼可拉斯.提勒博士(Dr Nicholas Tiller)解釋:“它們被設計成提供非常自信、非常權威的回答,這會傳達壹種可信感,讓使用者以為它壹定知道自己在說什麼。”

對這些研究的壹項常見批評是:技術發展速度太快,等研究發表時,聊天機器人背後的軟件可能已經更新。

但提勒認為,問題的根源在於“技術本質”——這是壹種根據語言模型預測文字的系統,如今卻被大眾用來尋求健康建議。

他主張,除非使用者本身具備足夠專業知識,能判斷AI何時出錯,否則不應該將聊天機器人用於健康咨詢。

“如果你在街上隨便問壹個人問題,而對方非常自信地回答,你就會全盤相信嗎?”他反問,“你至少會再去查證。”



[Getty Images]

ChatGPT的母公司OpenAI在聲明中表示:“我們知道人們會向 ChatGPT 尋求健康資訊,也非常重視讓回應盡可能可靠與安全。”

“我們與臨床醫師合作測試並改善模型,在真實醫療評估中,它們現在已有相當好的表現。”

“即便如此,ChatGPT應被用於資訊和教育,不應取代專業醫療建議。”

阿比仍然會使用AI聊天機器人,但她建議大家“對所有內容都保留懷疑態度”,並記住“它壹定會犯錯”。

“我不會相信它說的任何事情是百分之百正確的。”

《Inside Health》節目由蓋瑞.霍爾特(Gerry Holt)擔任制作人

[物價飛漲的時候 這樣省錢購物很爽]
無評論不新聞,發表壹下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  •  延伸閱讀
    漢人和白人的大腦差異 比人類和尼安德特人的還大 曾負責"通俄門"調查的FBI前局長再次被起訴
    困擾人類百年的問題,終於迎來突破性進展 大溫這裡驚現兩屍 凶案組展開調查
    肺癌最危險信號,不是胸痛而是肆種異常 駐美大使丑聞延燒 英國會明日表決調查施凱爾
    危險信號閃爍 華爾街大空頭再敲警鍾 泰國劇集在網飛打錯字,反而成了營銷密碼?
    黑袍糾察隊埋了伍年的伏筆:牆裡長出的超人類 列治文警方調查綁架案 公布車照片
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站