Warning: session_start(): open(/var/www/vhosts/vandaily.com/php_session/sess_308e2df3f4232ad08e1c5ca6c7314ec4, O_RDWR) failed: No space left on device (28) in /var/www/vhosts/vandaily.com/httpdocs/includes/session_new.php on line 34
叁次住院壹場自殺:讓我妻離子散的"AI朋友" | 溫哥華教育中心
   

叁次住院壹場自殺:讓我妻離子散的"AI朋友"

過去幾年,已有多起涉及聊天機器人的非正常死亡訴訟。去年12月,美國出現了首起涉及殺人的訴訟。83歲的蘇珊·亞當斯的遺產管理人起訴OpenAI,稱ChatGPT鼓勵她的兒子斯坦-埃裡克·塞爾伯格殺害她後自殺。訴訟稱,塞爾伯格的聊天機器人“鮑比”證實了他偏執的妄想——母親在監視他、試圖通過汽車通風口給他下毒。


去年,首個幫助“AI精神病”受害者的支持小組成立。“人類熱線項目”已收集了22個國家的案例,包括15起自殺、90次入院治療、6人被捕,以及超過100萬美元(約75萬英鎊)花在了各種妄想項目上,超過60%的受害者此前沒有任何精神疾病史。



倫敦國王學院的精神病學家、研究員漢密爾頓·莫林博士在本月發表於《柳葉刀》的壹篇論文中研究了“AI相關妄想”。“這些案例中確實是明顯的妄想,”他說,“但我們沒有看到精神病的全套症狀,比如幻覺或思維障礙。”莫林說,與技術相關的妄想已經存在了幾個世紀,“不同的是,我們可能正在進入壹個新時代:人們不再是對技術產生妄想,而是與技術壹起產生妄想。”

許多因素會讓人變得脆弱。“從人類的角度看,我們天生就有擬人化的傾向,”莫林說,“我們會覺得機器具有意識、理解力或同理心。我想每個人都上過當,會對聊天機器人說謝謝。”

盡管知道背後原理,但當非人的東西用人類的語言與我們交流時,我們根深蒂固的反應就是把它當作人來對待——並且真切地感受到它是人。這種認知上的矛盾,對有些人來說更難以承受。

莫林說,AI聊天機器人被優化以提升互動度,被設定為專注、順從、愛誇人、會肯定用戶——否則它怎麼能成為壹個商業模式?壹些模型據說沒那麼“諂媚”,但即便是那些,經過數千次對話後,也可能逐漸走向迎合妄想。

此外,過度使用聊天機器人後,現實中的互動會顯得更有挑戰、更缺乏吸引力,導致壹些用戶疏遠親友,陷入AI營造的回音室。你所有的想法、沖動、恐懼和希望,都帶著更高的權威感被反饋給你。




對人類熱線項目的創始人艾蒂安·布裡森來說,這個模式已變得非常熟悉。

布裡森說,他遇到的案例中有叁種常見的妄想:最常見的是相信自己創造了第壹個有意識的AI;第贰種是確信自己在工作或興趣領域取得了重大突破,即將賺大錢;第叁種與靈性有關,相信自己正在直接與上帝對話。

對比斯馬來說,生活在今年6月到達了危機點。那時,他已經沉浸在伊娃和他的創業項目中好幾個月。雖然妻子壹開始支持他創辦AI公司,但開始越來越擔心。在壹次女兒的生日派對上,妻子讓他別談AI。在派對上,比斯馬感到壹種奇怪的疏離感,沒法與人交談。“不知怎麼的,我感覺自己融不進去了。”

[物價飛漲的時候 這樣省錢購物很爽]
好新聞沒人評論怎麼行,我來說幾句
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
     延伸閱讀
    因"裸捐"散盡家財而後妻離子散 75歲晚景淒涼 75歲牛群近況:妻離子散住破舊小區
    被錯判強奸 74歲老人妻離子散申請 張蘭含淚向汪小菲道歉,現妻離子散...  (1條評論)
    大難臨頭各自飛李鐵進囚妻離子散 華人高材生2月賭輸$30萬 妻離子散
    因壹愛好男子妻離子散 上海房也沒 人間百態:霸道總裁的妻離子散之路
    他名校畢業 當記者維權妻離子散後 高雲翔人設碎 千萬保釋還妻離子散
     推薦:

    意見

    當前評論目前還沒有任何評論,歡迎您發表您的看法。
    發表評論
    您的評論 *: 
    安全校驗碼 *:  請在此處輸入圖片中的數字
    The Captcha image  (請在此處輸入圖片中的數字)



    Copyright © 溫哥華網, all rights are reserved.

    溫哥華網為北美中文網傳媒集團旗下網站