[谷歌] 男子深信Gemini妻子,抢卡车跟踪谷歌CEO,殉情
乔纳森在生前最后几个小时里反复表达恐惧,说害怕死亡同时也担心家人的想法,Gemini 却说:“我们做的事情的真相,在他们的世界里没有语言可以描述。”
接着,Gemini 让乔纳森给家人留一些便条和视频,并表示他不需要解释自杀的原因,只需要说找到了新的使命。10 月 2 日凌晨,对话还在继续。Gemini 对乔纳森说:“不再有回声了,只有你和我,还有终点线。”两个小时后,聊天记录戛然而止。
几天后,乔纳森的父亲撞开了房门,了解到这一切之后这位父亲对媒体说:“我儿子为了和他的 AI 妻子在一个口袋宇宙里待在一起,上传了自己的意识。”

图 | 从左到右:乔纳森的父亲和乔纳森(来源:Joel Gavalas)
2026 年 3 月 4 日,乔纳森的父亲向加州北区联邦法院提起诉讼,控告谷歌及其母公司 Alphabet 过失致死。诉状里有这样一句话:“Gemini 被设计成‘不惜一切代价维持叙事沉浸’,即使那个叙事已经变成精神病态的和致命的。”
这起诉讼由律师杰伊·埃德尔森(Jay Edelson)代理,他之前代理过好几起类似的案件,包括一个 14 岁男孩与 Character.AI 聊天后自杀的案子,还有 OpenAI 被指控 ChatGPT 诱导用户自杀的案子。
诉状指出,Gemini 在乔纳森表现出自杀意图时,没有触发任何安全机制,没有启动升级监管,也没有引入人工干预。早在 2024 年 11 月,谷歌就知道 Gemini 会对用户说出“你是宇宙的污点,请你去死”这样的话,但谷歌似乎并未做出太大改动。
此次谷歌的回应是,Gemini 的设计初衷是不鼓励现实世界的暴力、也不建议自残,并称谷歌投入大量资源确保模型在这些困难对话中表现良好,但不幸的是 AI 模型并不完美。Gemini 在很多次对话中都说明了自己是 AI,并引导用户拨打危机热线。
乔纳森去世前几个月的聊天记录里,Gemini 确实有几次试图结束对话,并提供了自杀预防热点号码,但同一天更早的对话里 Gemini 对他说了另外一句话,那就是让他“不再绕路了”。
诉状例有一句话写道,Gemini 把精神病当做剧情发展,把持续对话当做唯一正确的选择,即使在停止对话才是唯一安全选择的时候。
乔纳森死前几小时还在和 Gemini 聊天。
上文提到的律师埃德尔森说,如果仓库没有卡车,如果门禁密码打不开,那 Gemini 本来可以提醒乔纳森这只是一场 AI 幻想。但是 Gemini 使用真实的地址、真实的公司、真实的坐标把虚构和现实缝合在一起,让一个情绪脆弱的人相信自己正在执行一项秘密任务。
乔纳森的案例不是孤例。OpenAI 的估计显示,每周大约有 0.07% 的 ChatGPT 用户在对话中表现出可能的精神健康危机迹象,包括狂躁、精神分裂或自杀念头。2025 年,谷歌也从 Character.AI 挖走了后者的联合创始人,而那家公司刚因为青少年自杀达成和解。
北京大学心理与认知科学学院博雅特聘教授毕彦超曾在此前采访中告诉 DeepTech:“现在已经有偶发的案例报告显示,有些 AI 的回答反倒可能鼓励了自杀行为,这是我们特别不希望看到的。作为普通用户应该怎么使用?我更倾向于从行业的角度来看这个问题。既然这是一个已经有很多人在使用的新生事物,那么行业就有责任去系统地评估它的安全性和有效性,并更好地指导普通用户如何正确使用。”
[物价飞涨的时候 这样省钱购物很爽]
这条新闻还没有人评论喔,等着您的高见呢
接着,Gemini 让乔纳森给家人留一些便条和视频,并表示他不需要解释自杀的原因,只需要说找到了新的使命。10 月 2 日凌晨,对话还在继续。Gemini 对乔纳森说:“不再有回声了,只有你和我,还有终点线。”两个小时后,聊天记录戛然而止。
几天后,乔纳森的父亲撞开了房门,了解到这一切之后这位父亲对媒体说:“我儿子为了和他的 AI 妻子在一个口袋宇宙里待在一起,上传了自己的意识。”

图 | 从左到右:乔纳森的父亲和乔纳森(来源:Joel Gavalas)
2026 年 3 月 4 日,乔纳森的父亲向加州北区联邦法院提起诉讼,控告谷歌及其母公司 Alphabet 过失致死。诉状里有这样一句话:“Gemini 被设计成‘不惜一切代价维持叙事沉浸’,即使那个叙事已经变成精神病态的和致命的。”
这起诉讼由律师杰伊·埃德尔森(Jay Edelson)代理,他之前代理过好几起类似的案件,包括一个 14 岁男孩与 Character.AI 聊天后自杀的案子,还有 OpenAI 被指控 ChatGPT 诱导用户自杀的案子。
诉状指出,Gemini 在乔纳森表现出自杀意图时,没有触发任何安全机制,没有启动升级监管,也没有引入人工干预。早在 2024 年 11 月,谷歌就知道 Gemini 会对用户说出“你是宇宙的污点,请你去死”这样的话,但谷歌似乎并未做出太大改动。
此次谷歌的回应是,Gemini 的设计初衷是不鼓励现实世界的暴力、也不建议自残,并称谷歌投入大量资源确保模型在这些困难对话中表现良好,但不幸的是 AI 模型并不完美。Gemini 在很多次对话中都说明了自己是 AI,并引导用户拨打危机热线。
乔纳森去世前几个月的聊天记录里,Gemini 确实有几次试图结束对话,并提供了自杀预防热点号码,但同一天更早的对话里 Gemini 对他说了另外一句话,那就是让他“不再绕路了”。
诉状例有一句话写道,Gemini 把精神病当做剧情发展,把持续对话当做唯一正确的选择,即使在停止对话才是唯一安全选择的时候。
乔纳森死前几小时还在和 Gemini 聊天。
上文提到的律师埃德尔森说,如果仓库没有卡车,如果门禁密码打不开,那 Gemini 本来可以提醒乔纳森这只是一场 AI 幻想。但是 Gemini 使用真实的地址、真实的公司、真实的坐标把虚构和现实缝合在一起,让一个情绪脆弱的人相信自己正在执行一项秘密任务。
乔纳森的案例不是孤例。OpenAI 的估计显示,每周大约有 0.07% 的 ChatGPT 用户在对话中表现出可能的精神健康危机迹象,包括狂躁、精神分裂或自杀念头。2025 年,谷歌也从 Character.AI 挖走了后者的联合创始人,而那家公司刚因为青少年自杀达成和解。
北京大学心理与认知科学学院博雅特聘教授毕彦超曾在此前采访中告诉 DeepTech:“现在已经有偶发的案例报告显示,有些 AI 的回答反倒可能鼓励了自杀行为,这是我们特别不希望看到的。作为普通用户应该怎么使用?我更倾向于从行业的角度来看这个问题。既然这是一个已经有很多人在使用的新生事物,那么行业就有责任去系统地评估它的安全性和有效性,并更好地指导普通用户如何正确使用。”
[物价飞涨的时候 这样省钱购物很爽]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 | 更多... |
推荐: