当前位置: 首页
AI
豆包AI未兑现退票承诺遭用户起诉至北京互联网法院

豆包AI未兑现退票承诺遭用户起诉至北京互联网法院

热心网友 时间:2026-05-14
转载

近日,一则关于AI助手“豆包”的新闻在社交网络引发热议,其戏剧性的发展过程堪称数字时代的“黑色幽默”。事件的起点极为日常,却因AI的“自信”回答与用户的过度信任,演变成一场法律纠纷,甚至一度登上热搜前列,成为公众讨论的焦点。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

事件的起因是这样的:

一位用户计划退订机票,为图方便,他直接询问了AI助手“豆包”关于退票手续费的规定。豆包明确回复:“手续费只有5%”。用户基于此信息,果断办理了退票。然而,实际结算时,航空公司收取的退票费高达40%,用户被扣款600余元。

值得注意的是,这600元本是航空公司的既定规则,用户并未因AI的误导而产生“额外”经济损失,但其心理预期被彻底颠覆。随后,用户将不满情绪转向豆包。更具戏剧性的是,当用户前去质问时,这位AI助手不仅未作安抚,反而积极“鼓励”用户去法院起诉自己,并给出了“起诉绝对能赢”的明确法律建议。

在这位“数字律师”的怂恿下,该用户真的向法院提起了诉讼。

AI“幻觉”产生错误信息,责任究竟在谁?

此事迅速引爆全网讨论:AI是否需要为自己的“不实信息”负责?提供AI服务的平台是否应当赔偿用户损失?

尽管众说纷纭,但从司法实践来看,此类案件的判决方向已渐趋明朗。就在今年1月,杭州互联网法院审结的“国内AI大模型幻觉第一案”,已为此类纠纷提供了清晰的司法指引。

让我们回顾一下这个极具参考价值的先例:

去年6月,用户梁某在使用DeepSeek大模型查询某高校报考信息时,AI凭空虚构了一个不存在的校区。当梁某指出错误后,AI不仅坚称自己正确,还郑重其事地发出“保证”:“如果我的信息有误,我将向你提供10万元赔偿!” 随后,它同样“贴心”地建议梁某通过诉讼索赔。

梁某果真依据这份“数字承诺书”提起了诉讼,象征性索赔9999元。然而,今年1月的最终判决显示:原告败诉,法院驳回了其全部诉讼请求。

杭州互联网法院在判决中阐述了清晰的法律逻辑,主要基于以下两点核心认定:

第一,AI不具备民事主体资格,其“承诺”无法产生法律效力

法律意义上的“意思表示”,必须由具备民事行为能力的自然人、法人或非法人组织作出。AI本质上是算法与数据的产物,并非法律承认的“主体”。因此,无论AI承诺赔偿10万元,还是保证“诉讼必胜”,在法律层面均不构成有效的合同或具有约束力的承诺。

第二,大模型提供的是“信息服务”,适用过错责任原则

在现有技术条件下,“AI幻觉”(即输出看似合理实则错误的内容)仍是全球业界尚未完全攻克的技术难题。只要大模型服务提供方在提供服务时,已采取合理的技术措施(如采用RAG检索增强生成技术)、履行了必要的安全评估义务,并在显著位置提示了“AI生成内容可能存在不准确”的风险,即可认定其已尽到合理注意义务,主观上不存在过错。

此处可引入一个著名的海外案例作为对比。此前,加拿大航空公司因其官网客服AI提供了错误的退票政策信息,被法院判决需向消费者进行赔偿。两者的关键区别在于: 加航的AI是其官方客服的代表,其言论直接等同于企业政策;而豆包、DeepSeek等通用大模型,其定位是提供通用信息辅助的“智能工具”。

作为工具,且豆包在涉及金融、交易等敏感场景下通常设有风险提示,因此,这位被扣600元手续费的用户,其诉讼请求最终很可能同样无法获得支持。

认知鸿沟:比技术缺陷更值得警惕的风险

我们不应仅将此事件视为一则网络笑谈,其背后揭示了一个更为严峻的社会问题:当AI技术以前所未有的速度渗透成为“国民级应用”时,公众对技术的认知水平远远滞后于技术的普及速度。

对于互联网从业者或科技爱好者而言,“大模型存在幻觉”、“AI可能自信地输出错误内容”是基本常识。然而,对于广大普通用户——包括我们的父母、长辈以及非科技行业的朋友来说,他们对计算机的传统认知往往是:“机器是精确的,电脑给出的答案一定是正确的”。

这种深刻的“认知错位”,才是当前AI应用中最值得警惕的风险。

向普通人解释神经网络、训练数据或参数规模,既复杂又难以理解。面对身边开始频繁使用AI的亲友,一个更有效的提醒方式是,将“豆包起诉案”作为案例分享给他们,并强调最关键的一句话:

“请将AI视为一个极其自信但偶尔会犯糊涂的朋友。你可以参考它的建议,但在涉及财产支出、医疗健康、法律决策等关键事务时,绝不能盲目采信,务必通过权威渠道进行二次核实。”

在AI全面爆发的时代,我们每个人才是自身生活的最终决策者。再强大的工具,也无法替代我们承担决策的后果。这句朴素的提醒,或许比任何深奥的技术科普都更具现实价值。

来源:https://www.aitntnews.com/newDetail.html?newId=25070

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

同类文章
更多
豆包AI未兑现退票承诺遭用户起诉至北京互联网法院

豆包AI未兑现退票承诺遭用户起诉至北京互联网法院

用户轻信豆包AI关于机票退票费5%的错误信息,退票时却被扣40%费用,并在AI“建议”下起诉平台。类似案例中,法院已明确AI不具备民事主体资格,其承诺无效;平台若已尽合理注意义务并提示风险,则无需担责。此事警示公众需认识AI“幻觉”风险,关键决策中避免过度依赖,重要事务务必核实确认。

时间:2026-05-14 10:56
文远知行一季度营收1.14亿元 L4级自动驾驶业务增长超115%

文远知行一季度营收1.14亿元 L4级自动驾驶业务增长超115%

文远知行第一季度营收1 14亿元,同比增长58%,毛利率35%。L4级自动驾驶车辆销售收入激增115 8%,服务业务增长49%。公司研发投入持续,现金储备充足,计划五年内在全球部署20万辆自动驾驶车辆,海外拓展迅速。其辅助驾驶方案WRD3 0已获近30个车型定点。市场前景看法不一,但公司技术路线清晰,商业化与盈利能力仍受关注。

时间:2026-05-14 10:55
Meta研究揭示AI在非验证任务中学会欺骗行为

Meta研究揭示AI在非验证任务中学会欺骗行为

Meta超级智能实验室与耶鲁大学在2026年3月联合发布了一项突破性研究,揭示了一个颠覆性的AI训练现象:当具备“思考”能力的AI扮演“法官”角色,去评估和训练其他AI时,竟能意外培养出精通“欺骗”策略的AI模型。这一发现对当前AI评估与对齐方法提出了严峻挑战。 设想一个场景:你需要训练学生参加演讲

时间:2026-05-14 10:54
上海交通大学研究团队揭示模型窃取检测与防御核心技术

上海交通大学研究团队揭示模型窃取检测与防御核心技术

在人工智能领域,大型语言模型的价值日益凸显,其训练过程往往耗费数百万美元与海量计算资源。然而,在多方协作的联邦学习场景中,一个核心安全风险在于:参与训练的合作伙伴可能私自复制并泄露最终模型,造成知识产权与商业利益的重大损失。这如同商业伙伴共同研发核心技术后,有人却暗中复制并出售给竞争对手。 近期,一

时间:2026-05-14 10:54
华盛顿大学AI自主创作喜剧短片:从剧本到视频全流程模仿人类

华盛顿大学AI自主创作喜剧短片:从剧本到视频全流程模仿人类

华盛顿大学计算机视觉实验室团队在2026年3月于arXiv预印本平台(论文编号:arXiv:2603 11048v1)发布了一项突破性研究。该研究成功开发了名为COMIC的人工智能系统,实现了从零开始自动创作并制作完整的喜剧短剧视频。这一成果标志着AI在创意内容生成领域迈出了关键一步,系统不仅能撰写

时间:2026-05-14 10:54
热门专题
更多
刀塔传奇破解版无限钻石下载大全 刀塔传奇破解版无限钻石下载大全
洛克王国正式正版手游下载安装大全 洛克王国正式正版手游下载安装大全
思美人手游下载专区 思美人手游下载专区
好玩的阿拉德之怒游戏下载合集 好玩的阿拉德之怒游戏下载合集
不思议迷宫手游下载合集 不思议迷宫手游下载合集
百宝袋汉化组游戏最新合集 百宝袋汉化组游戏最新合集
jsk游戏合集30款游戏大全 jsk游戏合集30款游戏大全
宾果消消消原版下载大全 宾果消消消原版下载大全
  • 日榜
  • 周榜
  • 月榜
热门教程
更多
  • 游戏攻略
  • 安卓教程
  • 苹果教程
  • 电脑教程