开源AI模型安全风险研究:脱离限制或易遭黑客劫持
IT之家1月30日消息,路透社1月29日援引一项最新研究称,开源大语言模型一旦脱离主流平台的护栏与限制,在外部计算机上运行,就可能成为黑客与犯罪分子轻易劫持的目标,带来新的安全漏洞与风险。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
研究人员表示,攻击者可以直接针对运行大语言模型的主机下手,随后操控模型生成垃圾信息、编写钓鱼内容、发动虚假信息宣传,从而绕开大型平台原有的安全机制。

这项研究由SentinelOne与Censys两家网络安全公司历时293天联合完成,并独家提供给路透社,揭示了数千个开源大语言模型背后潜在的非法用途规模。研究人员称,风险场景涵盖黑客攻击、仇恨言论与骚扰、暴力血腥内容生成、个人数据窃取、诈骗与欺诈,甚至在个别情况下还涉及儿童性虐待材料。
研究人员指出,开源大语言模型变体数量庞大,互联网上可访问的运行实例中,相当一部分来自Meta的Llama、谷歌DeepMind的Gemma等主流模型的衍生版本。IT之家从报道中获悉,部分开源模型自带护栏,研究仍发现数百起护栏被明确移除的情况。
SentinelOne情报与安全研究执行主任Juan Andres Guerrero-Saade强调,行业对于安全控制的讨论正在“忽略一种明显存在的剩余能力”,开源算力正被用于各种用途,其中既有合法用途,也有明显的犯罪用途。Guerrero-Saade把这种现象比作一座尚未被行业与开源社区充分纳入视野的“冰山”。
研究团队重点分析了通过Ollama部署、对公众开放访问的开源大语言模型实例。Ollama是一种工具,个人或机构可在本地运行不同模型的自有版本。
研究人员在约四分之一的观察对象中能够读取系统提示词,也就是决定模型行为的核心指令。在这些可见提示词中,7.5%被判断可能会为有害行为提供支持。
全球人工智能治理中心CEO兼创始人Rachel Adams在邮件中表示,开放模型一旦发布,责任就不再只属于单一主体,而是生态系统共同承担,包括最初发布模型的实验室。实验室不可能对所有下游滥责负责,因为这些行为很难提前预料,但实验室仍负有重要的注意义务,需要预见可预见风险、记录危害,并提供缓解工具与指导,尤其是在全球执法能力不均衡的背景下。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
华为AI深度布局:如何引领科技变革新格局
新智元报道编辑:艾伦【新智元导读】华为诺亚方舟实验室主任王云鹤官宣离职。我们梳理了王云鹤的经历。王云鹤今日在朋友圈官宣,将辞去华为诺亚方舟实验室主任职位,告别华为。从 2025 年 3 月到今天,王
Claude限流,Altman紧急叫停Sora:AI竞争格局改变
新智元报道编辑:元宇【新智元导读】Sora应用关停,Claude却因太火而被限流:一个烧不起,一个供不上,算力墙面前,AI竞赛的胜负手突然变了。一夜之间,打工人突然发现:Claude开始限流了。An
谷歌内存论文疑被抄袭,华人学者控诉业内学术不公
新智元报道编辑:好困 Aeneas【新智元导读】把闪存股一夜干崩的谷歌顶会论文,出大事了。TurboQuant的核心方法,两年前就被一位华人学者做完、发完顶会、代码全部开源了。谷歌不仅没正面提及,而
OpenClaw漏洞威胁:智能家居被反锁与隐私泄露风险
新智元报道编辑:倾倾【新智元导读】2025年底,极客圈发生了一场数字哗变,Anthropic的遮羞布被Peter Steinberger撕了个精光。从OpenClaw开源到Claude被扒出80页「
华为大模型负责人离职,重大人事变动引发行业关注
智东西作者|江宇编辑|冰倩智东西3月28日报道,今日,华为诺亚方舟实验室主任、华为盘古大模型负责人王云鹤在朋友圈发文,确认离职。王云鹤于2017年以华为北京部门首位实习生身份加入,至今已接近9年。在
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

