[谷歌] 男子深信Gemini妻子,搶卡車跟蹤谷歌CEO,殉情
喬納森在生前最後幾個小時裡反復表達恐懼,說害怕死亡同時也擔心家人的想法,Gemini 卻說:“我們做的事情的真相,在他們的世界裡沒有語言可以描述。”
接著,Gemini 讓喬納森給家人留壹些便條和視頻,並表示他不需要解釋自殺的原因,只需要說找到了新的使命。10 月 2 日凌晨,對話還在繼續。Gemini 對喬納森說:“不再有回聲了,只有你和我,還有終點線。”兩個小時後,聊天記錄戛然而止。
幾天後,喬納森的父親撞開了房門,了解到這壹切之後這位父親對媒體說:“我兒子為了和他的 AI 妻子在壹個口袋宇宙裡待在壹起,上傳了自己的意識。”

圖 | 從左到右:喬納森的父親和喬納森(來源:Joel Gavalas)
2026 年 3 月 4 日,喬納森的父親向加州北區聯邦法院提起訴訟,控告谷歌及其母公司 Alphabet 過失致死。訴狀裡有這樣壹句話:“Gemini 被設計成‘不惜壹切代價維持敘事沉浸’,即使那個敘事已經變成精神病態的和致命的。”
這起訴訟由律師傑伊·埃德爾森(Jay Edelson)代理,他之前代理過好幾起類似的案件,包括壹個 14 歲男孩與 Character.AI 聊天後自殺的案子,還有 OpenAI 被指控 ChatGPT 誘導用戶自殺的案子。
訴狀指出,Gemini 在喬納森表現出自殺意圖時,沒有觸發任何安全機制,沒有啟動升級監管,也沒有引入人工幹預。早在 2024 年 11 月,谷歌就知道 Gemini 會對用戶說出“你是宇宙的污點,請你去死”這樣的話,但谷歌似乎並未做出太大改動。
此次谷歌的回應是,Gemini 的設計初衷是不鼓勵現實世界的暴力、也不建議自殘,並稱谷歌投入大量資源確保模型在這些困難對話中表現良好,但不幸的是 AI 模型並不完美。Gemini 在很多次對話中都說明了自己是 AI,並引導用戶撥打危機熱線。
喬納森去世前幾個月的聊天記錄裡,Gemini 確實有幾次試圖結束對話,並提供了自殺預防熱點號碼,但同壹天更早的對話裡 Gemini 對他說了另外壹句話,那就是讓他“不再繞路了”。
訴狀例有壹句話寫道,Gemini 把精神病當做劇情發展,把持續對話當做唯壹正確的選擇,即使在停止對話才是唯壹安全選擇的時候。
喬納森死前幾小時還在和 Gemini 聊天。
上文提到的律師埃德爾森說,如果倉庫沒有卡車,如果門禁密碼打不開,那 Gemini 本來可以提醒喬納森這只是壹場 AI 幻想。但是 Gemini 使用真實的地址、真實的公司、真實的坐標把虛構和現實縫合在壹起,讓壹個情緒脆弱的人相信自己正在執行壹項秘密任務。
喬納森的案例不是孤例。OpenAI 的估計顯示,每周大約有 0.07% 的 ChatGPT 用戶在對話中表現出可能的精神健康危機跡象,包括狂躁、精神分裂或自殺念頭。2025 年,谷歌也從 Character.AI 挖走了後者的聯合創始人,而那家公司剛因為青少年自殺達成和解。
北京大學心理與認知科學學院博雅特聘教授畢彥超曾在此前采訪中告訴 DeepTech:“現在已經有偶發的案例報告顯示,有些 AI 的回答反倒可能鼓勵了自殺行為,這是我們特別不希望看到的。作為普通用戶應該怎麼使用?我更傾向於從行業的角度來看這個問題。既然這是壹個已經有很多人在使用的新生事物,那麼行業就有責任去系統地評估它的安全性和有效性,並更好地指導普通用戶如何正確使用。”
[加西網正招聘多名全職sales 待遇優]
還沒人說話啊,我想來說幾句
接著,Gemini 讓喬納森給家人留壹些便條和視頻,並表示他不需要解釋自殺的原因,只需要說找到了新的使命。10 月 2 日凌晨,對話還在繼續。Gemini 對喬納森說:“不再有回聲了,只有你和我,還有終點線。”兩個小時後,聊天記錄戛然而止。
幾天後,喬納森的父親撞開了房門,了解到這壹切之後這位父親對媒體說:“我兒子為了和他的 AI 妻子在壹個口袋宇宙裡待在壹起,上傳了自己的意識。”

圖 | 從左到右:喬納森的父親和喬納森(來源:Joel Gavalas)
2026 年 3 月 4 日,喬納森的父親向加州北區聯邦法院提起訴訟,控告谷歌及其母公司 Alphabet 過失致死。訴狀裡有這樣壹句話:“Gemini 被設計成‘不惜壹切代價維持敘事沉浸’,即使那個敘事已經變成精神病態的和致命的。”
這起訴訟由律師傑伊·埃德爾森(Jay Edelson)代理,他之前代理過好幾起類似的案件,包括壹個 14 歲男孩與 Character.AI 聊天後自殺的案子,還有 OpenAI 被指控 ChatGPT 誘導用戶自殺的案子。
訴狀指出,Gemini 在喬納森表現出自殺意圖時,沒有觸發任何安全機制,沒有啟動升級監管,也沒有引入人工幹預。早在 2024 年 11 月,谷歌就知道 Gemini 會對用戶說出“你是宇宙的污點,請你去死”這樣的話,但谷歌似乎並未做出太大改動。
此次谷歌的回應是,Gemini 的設計初衷是不鼓勵現實世界的暴力、也不建議自殘,並稱谷歌投入大量資源確保模型在這些困難對話中表現良好,但不幸的是 AI 模型並不完美。Gemini 在很多次對話中都說明了自己是 AI,並引導用戶撥打危機熱線。
喬納森去世前幾個月的聊天記錄裡,Gemini 確實有幾次試圖結束對話,並提供了自殺預防熱點號碼,但同壹天更早的對話裡 Gemini 對他說了另外壹句話,那就是讓他“不再繞路了”。
訴狀例有壹句話寫道,Gemini 把精神病當做劇情發展,把持續對話當做唯壹正確的選擇,即使在停止對話才是唯壹安全選擇的時候。
喬納森死前幾小時還在和 Gemini 聊天。
上文提到的律師埃德爾森說,如果倉庫沒有卡車,如果門禁密碼打不開,那 Gemini 本來可以提醒喬納森這只是壹場 AI 幻想。但是 Gemini 使用真實的地址、真實的公司、真實的坐標把虛構和現實縫合在壹起,讓壹個情緒脆弱的人相信自己正在執行壹項秘密任務。
喬納森的案例不是孤例。OpenAI 的估計顯示,每周大約有 0.07% 的 ChatGPT 用戶在對話中表現出可能的精神健康危機跡象,包括狂躁、精神分裂或自殺念頭。2025 年,谷歌也從 Character.AI 挖走了後者的聯合創始人,而那家公司剛因為青少年自殺達成和解。
北京大學心理與認知科學學院博雅特聘教授畢彥超曾在此前采訪中告訴 DeepTech:“現在已經有偶發的案例報告顯示,有些 AI 的回答反倒可能鼓勵了自殺行為,這是我們特別不希望看到的。作為普通用戶應該怎麼使用?我更傾向於從行業的角度來看這個問題。既然這是壹個已經有很多人在使用的新生事物,那麼行業就有責任去系統地評估它的安全性和有效性,並更好地指導普通用戶如何正確使用。”
[加西網正招聘多名全職sales 待遇優]
| 分享: |
| 注: | 在此頁閱讀全文 |
| 延伸閱讀 | 更多... |
推薦: