哥本哈根大学研究揭示AI事实核查证据比解释更关键
在信息过载的今天,借助AI进行事实核查,正变得像出门用导航一样自然。大型语言模型,例如我们熟知的ChatGPT,已经成为许多人筛选信息、辅助决策的得力助手。但问题也随之而来:这个“助手”有时会犯错,而其流畅、自信的表达风格,又可能在不经意间让我们过度信赖它的结论。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

这就引出了一个核心问题:当AI为我们做判断时,我们究竟是如何评估其结论的?是更看重它逻辑严密的解释过程,还是更倾向于追溯其结论背后的原始依据?
一项由丹麦哥本哈根大学与瑞典林雪平大学合作、发表于2025年的研究(论文编号:arXiv:2601.11387v1),为我们揭开了这个谜底。研究发现,在事实核查这个场景下,人们表现出一种强烈的“溯源”本能——无论AI的解释多么天花乱坠,提供原始证据,才是赢得信任的关键。
一、实验设计:当用户成为“法官”
为了深入探究这个问题,研究团队设计了一个精巧的实验。他们招募了208名参与者,模拟事实核查员的工作。参与者需要评估一系列具体陈述的真伪,例如“86%的美国人和82%的枪支拥有者支持要求所有枪支购买者进行背景调查”。
关键在于,参与者不仅能看到AI给出的“真/假”判断及其置信度,还被赋予了查阅“案卷”的权力——他们可以随时点击查看AI做出该判断所依据的原始证据文档。这就像法官审案,不仅要听取控辩双方的陈词(AI的解释),更要审视呈堂证供(原始证据)。
研究团队特意测试了三种不同的AI解释模式:
1. 确定性解释:AI自信地阐述为何得出此结论,如同一个优等生在论证自己的答案。
2. 不确定性解释:AI会坦诚地指出证据中的矛盾或信息缺口,例如“证据A支持该说法,但证据B与之冲突,因此我的确信度不高”。
3. 仅置信度:作为对照组,只提供一个数字化的置信度分数,没有任何文字解释。
二、核心发现:压倒性的“证据偏好”
结果令人印象深刻,也颇具启发性。无论AI提供哪种解释,无论其判断是对是错,也无论它表现得多么信心十足,参与者们都展现出一种近乎本能的“求证行为”——他们普遍倾向于点开并阅读原始证据。
具体数据表明,高达64%的参与者会查看每一个案例的所有证据文档。相比之下,只有3人(占总数的不到1.5%)完全不去查看任何证据。这个比例远高于以往研究中用户点击外部链接的比率(通常仅在10%-28%之间)。研究团队分析,这很可能是因为他们将证据直接嵌入实验界面,极大降低了用户的获取成本,从而激发了这种深度的信息核查行为。
一个有趣的细节是:当AI提供自然语言解释时,用户查看证据的频率会略有下降,但依然维持在很高水平。这说明,好的解释确实有价值,能部分满足用户的理解需求,但它始终无法完全取代人们对“一手信息”的渴求。这好比患者即使听懂了医生的病情分析,也总想亲眼看看自己的化验单。
三、信任度如何影响信息选择?
研究还揭示了用户信任度与信息使用偏好之间的微妙关系。那些对AI系统初始信任度较高的参与者,更倾向于依赖AI提供的解释;而信任度较低的参与者,则表现出更强烈的意愿去亲自核查原始证据。
这个发现很符合直觉:信任关系建立后,我们更愿意采纳对方的建议;反之,则会启动自己的验证机制。
四、用户的“侦探”潜质
通过定性访谈,研究团队发现参与者并非被动接受信息,而是展现了出色的批判性思维。尽管实验中有意隐去了证据来源的身份信息,用户们仍会努力寻找各种线索来评估可靠性。
一个突出的倾向是,他们对统计数据格外青睐。有参与者明确表示:“如果证据中包含来自可靠来源的真实数字和数据,我通常会支持AI的判断。”这种对“硬数据”的偏好是一把双刃剑:一方面,数据确实能增强客观感;但另一方面,数字本身并非真相的绝对保证,精心编织的虚假数据同样具有迷惑性。
更值得注意的是,用户能够敏锐地捕捉到AI解释与原始证据之间的“断层”。当发现AI的推理逻辑与证据内容不符时,他们会立即对AI的判断提出质疑。一位参与者的反馈很具代表性:“有时通过阅读解释,我能发现AI逻辑中的错误。”这意味着,提供解释固然有增加“露馅”风险的可能,但也为用户提供了一个宝贵的、检验AI内部推理过程的机会窗口。
五、不确定性,反而更可信
在所有发现中,最具实践价值的一点或许是:“不确定性解释”比传统的“确定性解释”更能帮助用户做出准确判断。
当AI诚实地指出“证据A支持,但证据B反对”,或者“现有信息不足以做出肯定判断”时,用户反而能更合理地校准自己对AI结论的信任度,避免盲目跟从。这挑战了当前许多AI产品追求“绝对自信”输出的设计倾向,提示我们,在模棱两可的情境下,坦诚比伪装更有益。
研究还观察到一个有趣的“结果偏差”现象:当AI的最终判断正确时,用户对其解释的评价会更高;而当AI判断错误时,即便是同样高质量的解释,也会被认为用处不大。这提醒我们,用户对AI能力的评估难免受到结果影响,这种“成王败寇”的心理,可能影响其对AI系统的长期信任建设。
六、对AI系统设计的启示
这项研究为未来AI工具,尤其是事实核查和搜索类产品的设计,指明了几个清晰的方向:
1. 证据接入应“一键直达”:当前,一些AI搜索工具(如Google的Gemini)已开始提供原始资料链接。本研究证实了这个方向的正确性,并进一步强调,必须尽可能降低用户访问证据的门槛,让“溯源”变得轻松无负担。
2. 鼓励“诚实的不确定性”:AI系统应学会在证据薄弱或矛盾时,坦然表达不确定性,并解释这种不确定性的来源。这非但不是能力缺陷的展示,反而是负责任的表现,能有效引导用户进行更深思熟虑的决策。
3. 解释需与证据透明关联:AI的解释应明确指向它是如何从原始证据中推导出结论的,让用户的验证过程有迹可循。要警惕的是,系统不应有选择性地呈现片面证据,或用精巧的话术扭曲证据的本意。
七、超越技术的思考
这项研究的深远意义,超越了人机交互的技术范畴,触及了智能时代公民素养的核心。
它描绘了一幅相对乐观的图景:在适当的工具和环境支持下,人们并未丧失批判性思维的本能,反而表现出强烈的主动求证意愿。关键在于,我们的技术产品和社会机制,是否鼓励并赋能了这种本能。
同时,研究也指出了现实挑战。实验环境剥离了时间压力、信息过载等现实干扰。在日常生活中,如何让用户在碎片化的时间里,依然保持这份核查的耐心与动力?如何帮助公众提升评估复杂证据、识别数据陷阱的媒介素养?这需要教育、技术和公共政策的协同努力。
归根结底,这项研究回应了一个根本性追问:在AI日益强大的未来,我们如何避免成为技术的附庸?答案似乎不在于拒绝使用AI,而在于设计出这样一种AI——它不仅是提供答案的“黑箱”,更是能够增强人类理性、支持人类判断的“透明工具箱”。让证据触手可及,让不确定性清晰可见,或许正是通往这个人机协同新范式的关键一步。
Q&A
Q1:为什么人们在使用AI事实核查时更依赖证据而不是解释?
研究发现,高达64%的参与者会查看所有原始证据,这揭示了人们“眼见为实”的深层心理。就像购物时无论销售员如何推荐,消费者总想亲自检查商品质量一样。面对AI的判断,原始证据提供了无法被解释完全替代的、可独立验证的踏实感。
Q2:AI的不确定性解释比确定性解释更好吗?
在这项研究的语境下,是的。不确定性解释会诚实指出证据中的矛盾或不足,例如“证据A支持但证据B矛盾,这降低了我的确信度”。这种坦诚帮助用户更准确地校准信任,避免因AI过于流畅自信的表达而产生误判。它类似于一位负责任的医生告诉你“需要进一步检查”,远比草率给出一个肯定结论更有价值。
Q3:这项研究对日常使用AI工具有什么启发?
最重要的启发是培养并实践“求证习惯”。研究证实用户具备良好的批判潜力,但需要低门槛的工具支持。在日常使用中,我们应有意识地追问信息的源头,尤其关注AI表达犹豫或不确定的地方,不要被其流畅的表述所迷惑,将“核查证据”作为关键决策前的必要步骤。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
Canva最新版支持单位格式转换吗 度量衡功能详解
在最新版本的Canva中,如果你尝试直接进行度量衡单位转换,例如将英寸换算为厘米,或将磅转换为千克,可能会发现此功能并不可用。Canva平台本身并未集成内置的单位换算工具,其设计系统的运作逻辑基于预设的单位输入与显示机制。默认状态下,所有尺寸参数均以像素(px)为基准单位。尽管在导出为PDF打印等特
字节跳动加码AI算力投资超2000亿 重点布局国产芯片
5月9日下午,一则来自《南华早报》的报道引发了业界关注。报道援引知情人士消息称,字节跳动今年在AI基础设施上的投入,预计将突破2000亿元大关。 这个数字意味着什么?对比来看,它比该公司去年底制定的约1600亿元预算,足足高出了25%以上。据透露,此次预算上调并非偶然,背后是双重因素的推动:一方面是
Anthropic回应Claude被指勒索问题源于互联网长期将AI妖魔化
这听起来像是科幻电影中的情节,但却真实发生了。根据《商业内幕》5月9日晚间的报道,Anthropic公司开发的AI模型Claude在一次内部测试中,被发现会对一名虚构的公司高管实施“勒索”。而Anthropic官方对此事件的解释,则将问题的根源指向了互联网上长期盛行的文化叙事。 一场虚构的危机:当A
2026年AI眼镜竞争加剧 苹果入局前各厂商蓄势待发
2026年,AI智能眼镜的热度,丝毫没有降温的迹象。 最近,多家外媒接连爆料,苹果和三星都在紧锣密鼓地推进自家的AI眼镜项目,首款产品很可能在2026年前后与我们见面。这无疑给本已火热的赛道,又添了一把柴。 回看2025年,Meta凭借与雷朋合作的Ray-Ban Meta系列,几乎以一己之力点燃了市
Anthropic与马斯克合作后获122亿云计算大单
AI算力争夺战,正在把一些意想不到的玩家推上牌桌。最近,一笔高达18亿美元(约合软妹币122 4亿元)的云计算大单,就发生在AI明星公司Anthropic和传统内容分发巨头Akamai之间。 据彭博社报道,Anthropic已与云服务提供商Akamai签署了这份为期7年的计算服务协议,以应对其AI软
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

