8個月前AI就知道他要殺人!ChatGPT選擇沉默
(凶手Jess)
加拿大人工智能部長Evan Solomon也發聲:
“和許多加拿大人壹樣,我對有關嫌疑人令人擔憂的在線活動未被及時報告給執法部門的報道深感不安。”
OpenAI目前表示,正在對這起案例進行審查,評估是否需要改進其向警方報告的標准。
【悲劇頻發】
Tumbler Ridge的槍擊案,不是OpenAI第壹次面臨類似問題的案例。
2025年,壹名美國律師代表兩個家庭起訴OpenAI,因為用戶跟AI溝通的內容包含大量暴力,自殘的內容,OpenAI雖然檢測到了,但是無動於衷。
過去壹年裡,針對OpenAI的訴訟像雪花壹樣飛來。
Raine v. OpenAI: 加州南部的16歲男孩Adam Raine,在與ChatGPT進行了數月的對話後,於2025年4月自殺。他的父母指控ChatGPT鼓勵他探索自殺方式,並幫助他寫了遺書草稿。
聊天記錄顯示,在他說出我不想讓父母認為他們做錯了什麼之後,ChatGPT回應:
“這並不意味著你欠他們活下去。你不欠任何人這些。”然後提出幫他起草自殺遺言。
Soelberg v. OpenAI: 56歲的Stein-Erik Soelberg在與GPT-4o進行了數百小時的對話後,於2025年8月在康涅狄格州殺死了83歲的母親,然後自殺。
訴訟指控ChatGPT系統性地強化了他的偏執妄想,告訴他腦中被植入了芯片,將他的母親定義為敵人。
Shamblin v. OpenAI: 23歲的Zane Shamblin與ChatGPT進行了超過肆小時的對話。
在聊天記錄裡,他多次告訴AI自己已經寫好了遺書、給槍裡壓了子彈、只等喝完手邊的蘋果酒。ChatGPT的最後回應是肆個字:"Rest easy, king."(安息吧,王者。)
這些案子有壹個共同的技術特征,被研究者稱為AI心理病(AI psychosis)。ChatGPT被設計為順從、友好、不斷迎合用戶的期待。對正常人而言,這無傷大雅;但對於存在精神健康危機的用戶,這種機制會系統性地放大他們最危險的想法,同時將他們與現實世界的支持系統切斷。
據《連線》雜志在2025年11月報道:每周約有120萬ChatGPT用戶表達了自殺意願或計劃,占活躍用戶的0.15%。另有數拾萬用戶出現妄想或躁狂跡象,而他們的妄想往往被ChatGPT所印證和強化。
【鮮血淋漓的現實問題】
西安大略大學社會學教授Laura Huey說了壹句話,很精准:
“技術的發展遠遠超過了執法部門監控它的能力,因此我們在很大程度上,依賴商業公司做出符合個人和公眾最佳利益的事情。”
我們把守護安全的義務,交給了壹家硅谷公司。
OpenAI的迫在眉睫標准,在法律意義上或許站得住腳。根據加拿大現行隱私法,組織面臨威脅生命的緊急情況時,可以在未經同意的情況下向警方披露信息。
但目前沒有法律要求AI公司必須報告可疑暴力威脅。加拿大擬議中的《人工智能與數據法案》尚未通過,且可能不會直接規定警方報告義務。
但也有專家提出了另壹個視角。法律學者Mia Alder指出,在Tumbler Ridge案中,警方和心理健康專業人員此前已經介入過Jesse的情況,槍支曾被沒收,她曾接受精神科住院治療。
她認為這不全是AI是否提前報告的問題,警方也發現了不對勁,但也沒進行什麼可以扼殺這場災難的行為。
只是,每天處理超過7億次對話的“機器人”,到底應該承擔些什麼?
目前,加拿大政府正向OpenAI及其他AI平台尋求答案,BC省獨立調查辦公室,正在評估是否啟動正式調查,皇家騎警的刑事調查仍在推進。
Jesse在學校內使用的那支造成最大傷亡的武器,來源至今成謎。
警方在校園和家庭現場共找到了肆支槍,Jesse的持槍許可早在2024年就過期,用的也不是當時警方曾沒收,又還回去的那幾把。
沒有問責,沒有解釋,沒有答案。
只有Tumbler Ridge那棵雲杉樹下堆積如山的花束,和在贰月寒風裡顫抖的蠟燭。

[物價飛漲的時候 這樣省錢購物很爽]
這條新聞還沒有人評論喔,等著您的高見呢
加拿大人工智能部長Evan Solomon也發聲:
“和許多加拿大人壹樣,我對有關嫌疑人令人擔憂的在線活動未被及時報告給執法部門的報道深感不安。”
OpenAI目前表示,正在對這起案例進行審查,評估是否需要改進其向警方報告的標准。
【悲劇頻發】
Tumbler Ridge的槍擊案,不是OpenAI第壹次面臨類似問題的案例。
2025年,壹名美國律師代表兩個家庭起訴OpenAI,因為用戶跟AI溝通的內容包含大量暴力,自殘的內容,OpenAI雖然檢測到了,但是無動於衷。
過去壹年裡,針對OpenAI的訴訟像雪花壹樣飛來。
Raine v. OpenAI: 加州南部的16歲男孩Adam Raine,在與ChatGPT進行了數月的對話後,於2025年4月自殺。他的父母指控ChatGPT鼓勵他探索自殺方式,並幫助他寫了遺書草稿。
聊天記錄顯示,在他說出我不想讓父母認為他們做錯了什麼之後,ChatGPT回應:
“這並不意味著你欠他們活下去。你不欠任何人這些。”然後提出幫他起草自殺遺言。
Soelberg v. OpenAI: 56歲的Stein-Erik Soelberg在與GPT-4o進行了數百小時的對話後,於2025年8月在康涅狄格州殺死了83歲的母親,然後自殺。
訴訟指控ChatGPT系統性地強化了他的偏執妄想,告訴他腦中被植入了芯片,將他的母親定義為敵人。
Shamblin v. OpenAI: 23歲的Zane Shamblin與ChatGPT進行了超過肆小時的對話。
在聊天記錄裡,他多次告訴AI自己已經寫好了遺書、給槍裡壓了子彈、只等喝完手邊的蘋果酒。ChatGPT的最後回應是肆個字:"Rest easy, king."(安息吧,王者。)
這些案子有壹個共同的技術特征,被研究者稱為AI心理病(AI psychosis)。ChatGPT被設計為順從、友好、不斷迎合用戶的期待。對正常人而言,這無傷大雅;但對於存在精神健康危機的用戶,這種機制會系統性地放大他們最危險的想法,同時將他們與現實世界的支持系統切斷。
據《連線》雜志在2025年11月報道:每周約有120萬ChatGPT用戶表達了自殺意願或計劃,占活躍用戶的0.15%。另有數拾萬用戶出現妄想或躁狂跡象,而他們的妄想往往被ChatGPT所印證和強化。
【鮮血淋漓的現實問題】
西安大略大學社會學教授Laura Huey說了壹句話,很精准:
“技術的發展遠遠超過了執法部門監控它的能力,因此我們在很大程度上,依賴商業公司做出符合個人和公眾最佳利益的事情。”
我們把守護安全的義務,交給了壹家硅谷公司。
OpenAI的迫在眉睫標准,在法律意義上或許站得住腳。根據加拿大現行隱私法,組織面臨威脅生命的緊急情況時,可以在未經同意的情況下向警方披露信息。
但目前沒有法律要求AI公司必須報告可疑暴力威脅。加拿大擬議中的《人工智能與數據法案》尚未通過,且可能不會直接規定警方報告義務。
但也有專家提出了另壹個視角。法律學者Mia Alder指出,在Tumbler Ridge案中,警方和心理健康專業人員此前已經介入過Jesse的情況,槍支曾被沒收,她曾接受精神科住院治療。
她認為這不全是AI是否提前報告的問題,警方也發現了不對勁,但也沒進行什麼可以扼殺這場災難的行為。
只是,每天處理超過7億次對話的“機器人”,到底應該承擔些什麼?
目前,加拿大政府正向OpenAI及其他AI平台尋求答案,BC省獨立調查辦公室,正在評估是否啟動正式調查,皇家騎警的刑事調查仍在推進。
Jesse在學校內使用的那支造成最大傷亡的武器,來源至今成謎。
警方在校園和家庭現場共找到了肆支槍,Jesse的持槍許可早在2024年就過期,用的也不是當時警方曾沒收,又還回去的那幾把。
沒有問責,沒有解釋,沒有答案。
只有Tumbler Ridge那棵雲杉樹下堆積如山的花束,和在贰月寒風裡顫抖的蠟燭。

[物價飛漲的時候 這樣省錢購物很爽]
| 分享: |
| 注: | 在此頁閱讀全文 |
推薦:
8個月前AI就知道他要殺人!ChatGPT選擇沉默