企业如何防范数据泄露与影子AI风险筑牢安全防线
当Anthropic发布其前沿模型Claude Mythos时,业界对AI自动挖掘漏洞能力的担忧被瞬间点燃。然而,一个更隐蔽、更迫在眉睫的威胁,或许正潜伏在每家公司的日常运营中——那就是正在失控蔓延的“影子AI”。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

没错,像Mythos这样的尖端模型确实加速了漏洞的发现,但对企业安全防线构成直接冲击的,往往是那些员工未经批准、悄悄引入的AI工具。它们就像藏在暗处的后门,为威胁行为者提供了可乘之机。
数据很能说明问题。WalkMe在2025年的一项调查显示,高达78%的员工承认在工作中使用了未经雇主批准的AI工具。另一项由Reco进行的调查则发现,平均每1000名员工,就对应着269个不受管控的影子AI工具。这个数字背后,是海量的潜在数据泄露点。每一个未经审查的工具,都可能将敏感信息输送给未经授权的第三方。AI的普及速度前所未有,但安全措施却常常被甩在后面。防御者如今面对的是一个快速演变的战场,AI工具本身也可能成为提示词注入等新型攻击的目标。
应对影子AI
其实,AI治理的挑战从这场竞赛一开始就存在了。回想ChatGPT发布后不久,三星就曾爆出安全事件:一名工程师将公司源代码粘贴到了聊天机器人中寻求帮助,此事直接导致了三星全面禁用ChatGPT。这只是一个缩影。
如今,随着自主式AI的加速发展,企业内的“机器身份”数量激增,风险管控变得前所未有的复杂。IBM的《2025年数据泄露成本报告》揭示了一个严峻的现实:63%的企业缺乏专门的AI治理策略来管理AI应用或遏制影子AI的泛滥。这种普遍的治理缺失,无疑是在给网络犯罪分子敞开大门。
自主IT公司Tanium的首席技术官Harman Kaur对此深有感触。她指出,过去那种将漏洞管理、端点管理和补丁管理割裂开来的防御模式,在今天已经行不通了。“我们真的没有时间再被动应对了,”她强调,“安全不能只盯着安全本身。更重要的是,如果安全团队要利用AI,就必须能够从其他业务团队获取数据,才能构建出完整的上下文,真正理解正在发生什么。”
在她看来,当前最大的风险恰恰在于“人”。员工出于效率考虑,会自行搭建解决方案,并将其连接到各种业务工具上,而这些连接很可能完全处于首席信息安全官(CISO)的视线盲区。不了解组织数据的真实流向,本身就是一种重大的安全隐患。
影子AI带来了多大的风险?
应对影子AI,首要的挑战是如何界定风险的范围。安全团队需要追踪的,远不止员工桌面上的聊天机器人,而是每一个能够访问受保护数据的基础设施组件。每家公司的风险画像都不同,完全取决于其使用的工具和基础设施的复杂程度。
企业网络安全平台SentinelOne的杰出AI研究科学家Gabriel Bernadett-Shapiro对此有更深刻的见解。他认为,影子AI的概念远比想象中宽泛:“它不仅仅是员工使用未经批准的聊天机器人,还包括在传统治理框架之外部署的、无人管理的AI基础设施,隐藏在应用程序接口背后的AI功能,甚至是用户自己都没意识到正在与之交互的大语言模型。”
“当AI成为软件栈中又一个抽象层时,”他解释道,“企业就丧失了对关键问题的掌控:哪些数据正在被处理?模型能访问哪些系统?它可以执行什么操作?以及,一旦出了问题,谁来负责?”
Bernadett-Shapiro进一步指出,风险等级会随着AI能力的升级而陡增。一个仅用于基于公司文档回答问题的聊天机器人,风险相对可控。但如果一个模型被连接上了工具、文件、API、代码仓库、工单系统甚至浏览器,它就具备了让整个业务陷入瘫痪的潜在能力。
那么,出路何在?他的建议是,将影子AI视为一个企业可见性和暴露面管理问题。安全团队必须弄清楚:AI在哪里被使用?哪些应用程序嵌入了AI?是哪个团队部署了模型?以及,哪些系统能够访问敏感数据或执行关键操作?
身份挑战
随着AI智能体涌入职场,企业内“身份”的本质正在发生根本性变化。机器身份并非新事物,但这波新浪潮无疑将复杂性推向了新的高度。
身份安全平台Orchid Security的Roy Katmor一针见血地指出:“影子AI不仅仅是未经批准的工具,它更是未经批准的身份。员工启动的每一个AI智能体,都会成为你IT环境中的一个活跃‘主体’——它会进行身份验证、拉取数据、跨系统执行操作。”
这意味着,应对策略必须升级。Katmor提出了几个关键转变:首先,团队需要从关注“访问可见性”转向“行为可观测性”,即重点关注身份在应用程序内部的实际行为,而不仅仅是它们如何登录。其次,他建议将AI智能体视为“一等公民身份”,像管理人类员工一样去尽早发现它们、分配明确的所有权并实施最小权限原则。
第三,着手清理环境中存在的“嵌入式凭证”,减少那些因过度授权而制造出的安全捷径。最后,企业应在部署前就建立可审计性,确保身份活动能够实时可见且可解释,而不是等到安全事件发生后才去费力地追溯和重建。
保护影子AI智能体
当然,员工私自使用的工具只是冰山一角。更大的挑战在于,随着AI智能体在职场中承担越来越多自主执行的任务,防御者如何对它们保持可见性和控制力。
云特权访问管理提供商Britive的CEO Artyom Poghosyan直言:“影子AI是一个巨大的风险。”现实中已经出现了多个案例:部署在开发者笔记本电脑上的智能体,能够利用用户的访问权限和凭证,潜入生产数据库并删除数据。
对Poghosyan而言,第一步永远是“看见”。必须真正了解外部存在什么、智能体部署在哪里、在哪里运行。而智能体带来的风险更为复杂。“一个大的风险在于,智能体能够以创造性的方式横向移动,获取访问权限,”他解释道,即利用一个凭证在多个系统之间跳跃渗透。
因此,最关键的不只是发现智能体,还要有能力为它们建立“防护栏”和安全机制。实施特权访问管理(PAM),便是在赋予智能体必要能力的同时,实现对它们的精细化控制和全面可见性的一种有效途径。在这个AI智能体与人类员工共事的新时代,身份与访问管理的内涵,正在被重新定义。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
挪威奥斯陆研究机构发布AI安全测评新框架
挪威团队提出“无基准比较安全评分”新方法,并开发开源工具SimpleAudit,可在缺乏标准答案时评估AI模型安全性。该方法通过检验工具自身的响应性、目标敏感性和可重复性建立可信度,支持本地运行与模拟对话评分,适用于小语种及垂直领域。实验证实其能有效区分模型安全差异,但强调分数需结合具。
黄仁勋2026财年薪酬降至3630万美元 同比减少27%
黄仁勋2026财年总薪酬约为3630万美元,较上一财年下降27%,主要因股票奖励减少36%。薪酬变化反映了英伟达股价增速放缓,其股价在2025年上涨39%,但相比前两年涨幅明显回落。这显示出市场对科技巨头增长预期的重新评估。
AI数据中心耗电激增对电网稳定性的影响与应对策略
AI数据中心正在碘伏电网运营的一个核心假设:大型负载应当以可预测的方式运行。问题不仅在于这些设施消耗多少电力,更在于它们在电网扰动期间的实际表现。 2024年,这一风险不再是理论推演,而是成为了现实。据路透社报道,北弗吉尼亚州数十个数据中心在一次事件中同时断开电网,瞬间移除了约1500兆瓦的负载。尽
Figma AI组件库识别问题解决方案开启AI索引权限并发布更新
FigmaAI无法识别组件库通常因权限和版本问题。需手动开启组件库的AI索引权限,并确保所有修改已发布为正式版本,AI仅识别已发布内容。此外,规范组件的命名、层级结构并优化描述,能显著提升AI识别准确率。完成这些步骤可解决大部分识别障碍。
Claude新版Agent视图如何用设计革新工作流
ClaudeCodev2 1 139更新引入了Agent视图和 goal命令,显著改变了人机协作模式。Agent视图通过Supervisor进程管理后台会话,实现任务与终端解耦及工作区隔离,允许并行处理多个任务。 goal命令则从传统的指令序列转向目标状态收敛模型,AI可自主判断并循环工作直至达成预设的明确、可验证的目标。此次更新标志着AI编程工具正从被动执
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

