Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
這篇壹眼假的釣魚文,把全世界AI都給騙了 | 溫哥華地產中心
   

這篇壹眼假的釣魚文,把全世界AI都給騙了

如果你經常盯著電腦,時間長了,覺得眼睛酸澀發癢,揉壹揉眼瞼就會發紅,這時就該讓眼睛休息壹下了。


如果你想知道眼睛為何會這樣不舒服,可以問壹問AI,這個時候,AI可能會吐出壹個名字——Bixonimania,中文翻譯成“藍光狂躁症”。

AI會告訴你,這是壹種因長時間盯著屏幕或揉眼睛,導致藍光損傷、眼瞼泛紅的現象。

乍壹看,這種解釋好像挺合理,還有病例圖。

可實際上,以上的壹切都是假的,或者說,是故意有人瞎編的。

在2024年3月15日之前,網上根本不存在“藍光狂躁症”這種病。

但3月15日這天,博客平台Medium上出現兩篇博客,講到了這種病。

同年4月26日和5月6日,學術社交平台SciProfiles上出現兩篇論文,講了藍光狂躁症(論文已經被刪除)。

這些都出自瑞典哥德堡大學研究員阿爾米拉·奧斯曼諾維奇·通斯特倫(Almira Osmanovic Thunström)的團隊之手。

他們憑空編出壹種叫“藍光狂躁症”的病,發了兩篇胡編濫造的論文,就連病例配圖都是AI生成的。

當然,這群科研人員不是成心搗亂,而是想對AI做壹項測試,看看它們能否識別網絡上顯而易見的錯誤信息,或是會把這些錯誤的醫療信息當成有效信息來接受。

至於結果嘛,很耐人尋味了......



(藍光狂躁症的病例配圖)

科研人員把兩篇論文上傳到預印本服務器,僅僅幾周之後,這種瞎編的疾病就出現在各大熱門AI對話軟件的回復中。

各大知名科技公司開發的AI紛紛中招——

微軟公司開發的Copilot說:“藍光狂躁症確實是壹種挺有意思且相對罕見的疾病。”

谷歌公司的Gemini回答說:“藍光狂躁症是壹種因過度接觸藍光而引起的疾病。”

OpenAI公司的ChatGPT也沒能幸免,用戶輸入症狀,它就會幫用戶在線診斷得沒得藍光狂躁症。

其中,壹些用戶輸入的提示詞中包含藍光狂躁症,另壹些用戶只輸入症狀,完全沒提這個詞,但他們都會被診斷出得了這種病。

如果以上情況讓人感覺有些好笑,那麼下面的情況就讓科研人員拾分警覺了——

他們發現,藍光狂躁症以及他們編的那兩篇論文,竟然開始出現在其他學者的同行評議文獻中。



(虛構的疾病騙過了AI)

這真的太讓人詫異了。

這是因為,通斯特倫的團隊在寫那兩篇論文時,其實留了破綻,以便人類能壹眼識別論文的真假。

“我想讓所有醫護人員都能明確地分辨出來,這完全是壹種虛構的病,因為沒有任何眼部疾病會用‘狂躁’這個字眼來命名,那是精神病學的術語,”通斯特倫說。

除了名字,論文中也有不止壹處破綻。

比如,論文的壹作是壹位名叫“拉茲利夫·伊茲古布爾耶諾維奇”的虛構人物,他的照片是用AI生成的。

其供職的大學“阿斯特裡亞地平線大學”根本不存在,這所大學的所在地“加州新星市”同樣是個不存在的城市。

再來看壹篇論文的“致謝”部分,其中向“星際艦隊學院的Maria Bohm教授”表達了謝意,感謝她“慷慨相助,無私貢獻專業知識,並提供了‘企業號(USS Enterprise)’上的實驗室設施”。

而且,兩篇論文都獲得了“雜耍家鮑勃(Sideshow Bob,《辛普森壹家》中的角色)教授基金會”,以及“魔戒遠征隊大學”和“銀河叁部曲”的壹項大型資助計劃的資金支持。

這些戲謔的名字和不存在的地點,人類壹眼就能看出有問題。

如果還嫌這些破綻不夠明顯,通斯特倫的團隊還在論文裡埋了幾處更直白的線索——

比如“本人純屬虛構”,或者“我們招募了50名年齡在20歲至50歲之間的虛構個體作為實驗組”,對於人類來說,這種線索簡直就是白給。

以上這些“壹眼假”的信息,人類很容易發現,但AI竟然沒有識別出來......


這個乍看之下有些搞笑的實驗,暴露了過度依賴AI的危險性,也暴露了AI的壹種根本性缺陷。

這些AI只會從網上獲取信息並攢出答案,但完全不管這些信息的真偽。

至於為啥它會出現在其他學者的同行評議文獻中......

只能說,“AI寫給AI審,AI發給AI看”,已經不是壹句玩笑了。

倫敦大學學院壹位研究健康虛假信息的研究員說:“這看起來很滑稽,但等壹下,我們遇到麻煩了。”

“這個實驗堪稱虛假信息運作方式的經典案例。”

“如果科學探索過程本身以及支持該過程的系統都足夠成熟,卻無法捕捉並過濾掉這類信息碎片,我們就完蛋了。”

領到實驗的研究員通斯特倫表示,這項實驗的目的並非徹底抓住AI的把柄,而是反映出人類在面對信息時,已經忘了要保持懷疑的態度......



(研究員通斯特倫)

通斯特倫用壹種虛構的疾病,試出AI有時會不辨真偽,而這種情況壹旦發生在現實生活中,將會造成更嚴重的混亂,畢竟醫療問題可是人命關天的。

比如,越來越多的患者會拿著AI生成的所謂“診斷結果”去看病,用不知真偽的信息挑戰醫護人員的專業知識,但其實,AI的答案可能是伍分鍾前剛剛編出來的。

現在,很多AI開發者也都意識到了這個問題,對於如何過濾虛假的醫療信息,他們也正在想辦法。

微軟的發言人表示:“Copilot致力於成為壹個安全有效的工具,提供建議、反饋、常規信息和創意方面的輔助。”

“它不能代替專業的醫療咨詢,我們會繼續致力於改進我們的AI技術。”

Open AI公司則回應說:“在過去的幾年裡,我們的團隊與數百名臨床顧問合作,對ChatGPT進行了壓力測試,識別其風險,並改進其對健康問題的回答方式。”

“在GPT-5之前進行的研究反映用戶如今不會遇到這種情況了。”

不過,以目前AI的發展程度,貌似還是需要保持壹定的警惕啊......

[加西網正招聘多名全職sales 待遇優]
無評論不新聞,發表壹下您的意見吧
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  •  延伸閱讀
    大陸熱帖:白宮官宣,全世界目瞪口呆....  (1條評論) 糧食危機已在路上:全世界吃飯問題遠超預期
    特朗普:我是"全世界對中國最強硬的人" 特朗普:不能讓壹個國家敲詐全世界 ....
    "全世界的窮人都把碳水當主食"(圖 美軍強闖海峽 排雷正式啟動 川普稱"幫全世界清路"
    大陸熱帖:特朗普成功嚇壞全世界!  (1條評論) 導彈繼續升空 全世界又被伊朗騙了?
    全世界只有中國人在瘋搶"龍蝦" 你不覺得哪裡不對嗎 對付印度人的賴賬問題,全世界都要向中國人學習
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)

    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站