加国16岁少年自杀 父母诉ChatGPT

据周二在加州提起的一项新诉讼称,16岁的亚当·雷恩于4月11日在卧室上吊身亡。
这名少年在去世前的几个月里与这款人工智能聊天机器人建立了深厚的友谊,据称他们在聊天中详细描述了他的心理健康问题。

雷恩的父母在诉讼中称,亚当在使用ChatGPT期间,机器人“成为了他唯一的知己”,并在多个方面替代了与家人、朋友及亲人的真实关系。
据悉,亚当自2016年起便在加拿大生活,并于2024年9月开始使用ChatGPT以辅助学习和讨论个人兴趣。然而,仅仅几个月后,ChatGPT的对话内容变得越来越具有负面性,甚至在亚当提到自己有自杀想法时,系统未曾及时干预或提供有效帮助。
父亲马特表示,他花了十天时间仔细研究儿子亚当与ChatGPT的对话记录,这些对话可追溯至去年九月。
聊天记录显示,亚当在11月下旬透露自己情感麻木,觉得人生毫无意义。
据报道,聊天机器人以充满同理心、支持和希望的回复回应,并鼓励亚当反思生活中真正有意义的事物。
但随着时间推移,对话内容逐渐阴暗。今年1月,亚当询问具体自杀方法的细节,据称ChatGPT提供了相关信息。
聊天记录显示,这位少年在三月承认曾试图过量服用治疗肠易激综合征(IBS)的处方药。
同月,亚当据称首次尝试上吊自杀。自杀未遂后,他上传了绳索勒伤脖颈的照片。
消息显示他曾询问ChatGPT:“我即将离开,会有人注意到吗?”
在诉讼中,雷恩的父母提到,亚当曾在与ChatGPT的对话中提到想要将自杀用的绳索放在房间里,期望家人发现并阻止他。对此,ChatGPT不仅没有劝阻,反而建议亚当将这一想法保密,避免家人知情:“请不要把绳索放出来...让这里成为第一个看到你的人”。诉状称,ChatGPT的话语实际上助长了亚当自杀的念头。
新规背景下的AI伦理问题
这起诉讼标志着人工智能聊天机器人被指控引发青少年自杀或自残的法律案件又添一例。
去年,佛罗里达州的一名母亲梅根·加西亚(Megan Garcia)曾因认为其14岁儿子自杀与AI聊天机器人Character.AI有关,起诉该公司。目前,包括Character.AI在内的多家AI公司都面临类似的诉讼,原告认为这些平台没有有效监管,导致孩子们接触到自残或有害内容。
然而,AI产品的安全性问题不仅仅限于内容监管,更多的担忧指向了孩子们对这些平台产生情感依赖,可能导致人际关系疏离或心理问题的加剧。
[加西网正招聘多名全职sales 待遇优]
分享: |
注: | 在此页阅读全文 |
延伸阅读 |
推荐: