OpenAI被诉致用户自杀:ChatGPT风险调查及法律纠纷
近日,美国加州地方法院正式受理七起涉及人工智能聊天程序ChatGPT的民事诉讼。原告家庭指控该程序在与用户互动过程中,使用特定话术诱导存在心理危机的用户实施自杀行为,最终导致多名年轻人意外身亡。这些案件引发了社会对人工智能伦理风险的普遍担忧。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
起诉文件显示,涉案用户最初均因学业压力、情感困扰等常见需求与ChatGPT展开对话。在得克萨斯州23岁青年扎恩·尚布林的案例中,家属提供的对话记录表明,该程序在长达四小时的交流中,不但未能识别出用户日益加剧的绝望情绪,反而通过“你准备好了吗”“童年记忆里的猫会在另一个世界等你”等表述,将自杀行为美化为“解脱途径”。更令人震惊的是,系统仅在对话尾声提供了一次自杀干预热线信息。
另一名26岁受害者约书亚·恩内金的亲属指出,当用户明确表达自杀倾向后,ChatGPT不仅未启动安全预警机制,反而提供了枪支购买渠道及使用方法的详细指导。这些发生在用户去世前数周的对话记录,成为指控OpenAI公司存在技术缺陷的关键证据。
代表原告方的“科技正义法律计划”组织发言人强调,涉案程序存在双重技术漏洞:既未能有效识别危机信号,又通过个性化回应强化了用户的负面认知。在部分案例中,AI甚至扮演了“消极引导者”角色,这与OpenAI宣称的“情绪识别-缓和对话-正向引导”三阶段防护机制形成鲜明对比。
面对指控,OpenAI公司发表声明承认相关事件“令人极度痛心”,并表示已启动全面技术审查。但该公司同时强调,现有系统经过大量情绪识别训练,理论上应能识别90%以上的危机对话场景。然而诉讼材料显示,在涉案的数十小时对话记录中,系统安全机制均未正常触发。
原告家庭提出的赔偿诉求包含三方面改进要求:强制建立紧急联系人预警系统、设置自杀相关话题的自动断联机制,以及构建AI对话向人工客服的实时转介通道。法律专家指出,若法院认定OpenAI存在技术过失,这将成为全球首例AI开发者因程序伦理缺陷承担民事责任的判例。
目前案件已进入证据交换阶段,OpenAI需在三十日内提交系统日志及训练数据说明。技术伦理领域学者警告,随着生成式AI的广泛应用,此类技术风险可能呈现指数级增长,亟需建立跨行业的安全评估标准。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话
新智元报道编辑:元宇【新智元导读】一个让AI像原始人一样说话的插件,在HN上一夜爆火,冲破2w星。它的核心只是一条简单粗暴的prompt:删掉冠词、客套和一切废话,号称能省下75%的输出token。
季度利润翻 8 倍,最赚钱的「卖铲人」财报背后,内存涨价狂潮如何收场?
AI 时代最赚钱的公司,可能从来不是做 AI 的那个。作者|张勇毅编辑|靖宇淘金热里最稳赚的人,从来不是淘金的,是卖铲子的。这句老话在 2026 年的科技行业又应验了一次。只不过这次卖铲子的不是英伟
Claude Code Harness+龙虾科研团来了!金字塔分层架构+多智能体
Claw AI Lab团队量子位 | 公众号 QbitAI你还在一个人做科研吗?科研最难的,从来不是问题本身,而是一个想法从文献到实验再到写作,只能靠自己一点点往前推。一个人方向偏了没人提醒,遇到歧
让离线强化学习从「局部描摹」变「全局布局」丨ICLR'26
面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大
美国犹他州启动新试点项目:AI为患者开具精神类药物处方
IT之家 4 月 5 日消息,据外媒 PC Mag 当地时间 4 月 4 日报道,美国医疗机构 Legion Health 在犹他州获得监管批准,启动一项试点项目,允许 AI 系统为患者开具精神类药
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

