智谱GLM-5.1发布:所有Coding+Plan用户皆可调用
IT之家 3 月 27 日消息,智谱最新现已公布 GLM-5.1 模型,所有 Coding Plan 用户均可调用。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

IT之家附 Claude Code、OpenClaw 启用 GLM-5.1 方法如下:
Claude Code:
前置工作:
默认情况下,Claude Code 的模型环境变量如下:
ANTHROPIC_DEFAULT_OPUS_MODEL:GLM-4.7
ANTHROPIC_DEFAULT_SONNET_MODEL:GLM-4.7
ANTHROPIC_DEFAULT_HAIKU_MODEL:GLM-4.5-Air
第一步:修改配置:
Windows 用户:按“~/.claude/settings.json”路径找到配置文件
macOS 用户:打开“终端”,输入“vim ~/.claude/settings.json”
然后将 settings.json 修改为以下样式,Mac 用户改完后记得“:wq”保存:
{ "env": { "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air", "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-5.1", "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-5.1" } }
第二步:确认模型已经切换:
打开新的终端窗口,运行 Claude 并且启用 Claude Code,然后输入“/status”检查模型是否正确切换

OpenClaw:
第一步:更新默认配置文件:
从“~/.openclaw/openclaw.json”目录中找到配置文件
将“glm-5.1”添加到“models.providers.zai.models”数组中。把以下对象追加到数组中最后一个模型之后。如果 JSON 语法要求,请务必添加逗号:
{ "id": "glm-5.1", "name": "GLM-5.1", "reasoning": true, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 204800, "maxTokens": 131072}
然后更新“agents.defaults.model.primary”的默认模型:
"primary": "zai/glm-5",
接着,把上面的代码改为以下样式:
"primary": "zai/glm-5.1",
在“ agents.defaults.models”添加:
"zai/glm-5.1": {}
第二步:更新配置参考
以下是参考代码,用于展示更新后的配置应该是什么样子
1、“models.providers.zai.models”部分:
"models": [ { "id": "glm-5", "name": "GLM-5", "reasoning": true, "input": ["text"], "cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0}, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "glm-4.7", "name": "GLM-4.7", "reasoning": true, "input": ["text"], "cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0}, "contextWindow": 204800, "maxTokens": 131072 }, { "id": "glm-5.1", "name": "GLM-5.1", "reasoning": true, "input": ["text"], "cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0}, "contextWindow": 204800, "maxTokens": 131072 }]
2、“agents.defaults.model.primary”部分:
"model": { "primary": "zai/glm-5.1", "fallbacks": ["zai/glm-4.7"]}
3、“agents.defaults.models”部分:
"models": { "zai/glm-5": {"alias": "GLM"}, "zai/glm-4.7": {}, "zai/glm-5.1": {}}
做完以上更改后,运行“openclaw gateway restart”命令重启网关
重启后,您应该可以直接使用 GLM-5.1 模型,您可以在终端运行“openclaw tui”进入聊天界面。
游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
新加坡国立大学破解AI看图说话难题让机器描述更准确
人工智能的“幻觉”问题,特别是大模型在图像描述任务中凭空捏造内容的现象,一直是制约其可靠应用的关键挑战。2026年2月,一项由新加坡国立大学与北京大学深圳研究生院联合发布的突破性研究,为这一难题提供了全新的理解与一套高效、简洁的解决方案。这项研究(论文预印本编号:arXiv:2602 22144v1
斯坦福大学JavisDiT++实现AI有声有色视频生成
这项由浙江大学、新加坡国立大学、多伦多大学等全球顶尖科研机构联合完成的研究成果,已正式发表于2026年国际学习表征会议(ICLR 2026),论文预印本编号为arXiv:2602 19163v1。对于希望深入探究技术细节的读者,可通过此编号查阅完整的学术论文。 在浏览短视频时,你可能已经察觉到一种普
北大提出AI推理双车道方案解决大模型对话卡顿难题
这项由北京大学计算机学院主导,联合清华大学及DeepSeek-AI共同完成的前沿研究,其成果已正式发布于2026年2月的arXiv预印本平台,论文编号为arXiv:2602 21548v1。关注大语言模型推理优化的研究者与开发者,可通过此编号查阅论文全文与技术细节。 在与大语言模型进行深度、多轮对话
清华大学AI突破:赋予虚拟世界持久记忆,解决视频生成失忆难题
想象一下,你正在体验一款开放世界游戏。当你站在高塔之巅,远方的山脉清晰可见。随后你转身离开,去探索地图的其他角落。许久之后,当你再次回到这座塔顶,那座山依然以完全相同的姿态矗立在原地。这种空间持久且一致的认知,是人类理解世界的基础。 然而,若让当前的主流AI来动态生成这样的游戏场景,结果会大相径庭。
大模型压缩技术COMPOT让AI运行更高效
随着人工智能模型参数规模不断突破千亿级别,其庞大的存储需求和计算开销已成为实际部署的主要瓶颈。针对这一挑战,MWS AI基础研究中心与ITMO大学联合提出了一种名为COMPOT的创新模型压缩技术。这项发表于2026年2月预印本平台(arXiv:2602 15200v1)的研究,为大语言模型高效“瘦身
- 日榜
- 周榜
- 月榜
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程
热门话题

