在ubuntu2204环境中使用npm部署openclaw对接本地ollama
前言
近期在探索自动化运维解决方案,关注到由AI驱动的命令行助手项目——OpenClaw。作为一款宣称能显著提升效率的智能工具,自然要亲手搭建并实测一番,验证其是否真能成为工程师的得力助手。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
一、部署环境说明
为便于读者复现与参考,先将本次成功部署OpenClaw的具体环境信息列出:
操作系统:Ubuntu 22.04.5 LTS
Node版本:v22.22.0
NPM版本:10.9.4
二、详细部署流程
1. 搭建Node.js运行环境
第一步是准备基础运行环境。推荐通过NodeSource官方仓库进行安装,过程简洁可靠。若处于离线环境,也可选择源码编译方式安装Node.js。
# 1. 更新系统并安装必要工具
sudo apt update
sudo apt install -y curl
# 2. 添加 NodeSource 仓库(以 Node.js 22.x LTS 为例)
curl -fsSL https://deb.nodesource.com/setup_22.x | bash -
# 3. 安装 Node.js(自动包含 npm)
sudo apt install -y nodejs
# 4. 验证安装结果
node -v # 查看 Node.js 版本
npm -v # 查看 npm 版本
2. 安装OpenClaw核心程序
基础环境就绪后,即可通过NPM全局安装OpenClaw最新版本。
# 安装git(若尚未安装)
apt install git -y
# 全局安装openclaw
npm install -g openclaw@latest --force
# 运行初始化并安装守护进程
openclaw onboard --install-daemon
执行启动命令后,系统将进入交互式配置向导,依据自身环境实际情况逐步完成设置即可。本文选择对接本地已部署的Ollama服务来提供AI模型能力。
3. 配置对接本地Ollama服务
实现OpenClaw调用本地模型的关键,在于正确修改其配置文件:~/.openclaw/openclaw.json。核心操作是调整models配置段,将其指向本地Ollama服务的API地址。
"models": {
"mode": "merge",
"providers": {
"custom-172-16-113-20-11434": {
"baseUrl": "http://172.16.113.20:11434/v1",
"apiKey": "test",
"api": "ollama",
"models": [{
"id": "llama3.2",
"name": "llama3.2 (Custom Provider)",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 16000,
"maxTokens": 4096
},{
"id": "qwen2.5-coder:0.5b-instruct-q4_K_M",
"name": "qwen2.5-coder:0.5b-instruct-q4_K_M",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32000,
"maxTokens": 4096
},{
"id": "qwen3.5:4b",
"name": "qwen3.5:4b",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32000,
"maxTokens": 4096
}]
}
},
"agents": {
"defaults": {
"model": {
"primary": "custom-172-16-113-20-11434/qwen2.5-coder:0.5b-instruct-q4_K_M"
},
"models": {
"custom-172-16-113-20-11434/llama3.2": {
"alias": "llama3.2"
},
"custom-172-16-113-20-11434/qwen2.5-coder:0.5b-instruct-q4_K_M": {
"alias": "qwen2.5-coder:0.5b-instruct-q4_K_M"
},
"custom-172-16-113-20-11434/qwen3.5:4b": {
"alias": "qwen3.5:4b"
},
"workspace": "/root/.openclaw/workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
},
配置文件修改保存后,务必重启OpenClaw服务以使新配置生效。
# 重启OpenClaw网关服务
systemctl --user restart openclaw-gateway
# 查看服务运行状态
systemctl --user status openclaw-gateway
# 实时查看运行日志
tail -f /tmp/openclaw/openclaw-2026-03-05.log

总结与体验
部署完成后,笔者首先尝试测试其自动化执行能力,例如指示它在服务器上运行特定命令。结果发现,OpenClaw非常明确地界定了自身权限,申明其仅为辅助工具,无法直接在主机上执行命令,安全边界清晰。
总体而言,OpenClaw在Ubuntu系统上的安装与配置流程较为清晰顺畅。然而,该工具的实际能力边界、适用场景以及深度集成玩法,仍需在具体运维实践中进一步探索。恰逢新的工作任务到来,关于OpenClaw的更多高级功能与效能测评,留待后续有机会再深入分享。

游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。
同类文章
工信部发布防范 OpenClaw(“龙虾”)开源智能体安全风险“六要六不要”建议
工信部发布“六要六不要”,为OpenClaw(“龙虾”)开源智能体安全风险划出红线 近日,工业和信息化部网络安全威胁和漏洞信息共享平台发布了一份重磅文件,针对当前热门的OpenClaw(因其图标酷似龙虾,业内常昵称为“龙虾”)开源智能体,提出了清晰的安全使用指引——“六要六不要”。这份建议可不是空穴
荣耀 CEO 李健:荣耀机器人全栈自研,将聚焦消费市场
荣耀CEO李健详解机器人战略:全栈自研,聚焦三大核心消费场景 荣耀春季旗舰新品发布会圆满结束后,关于公司未来发展的蓝图更加清晰。在随后的媒体沟通会上,荣耀CEO李健不仅公布了年度销售目标,更首次系统性地阐述了荣耀在机器人领域的完整战略规划与市场布局。 在探讨机器人业务发展方向时,李健明确了荣耀的坚定
别只盯着“上门装龙虾赚26万”!看懂OpenClaw背后的“意图入口”大战
别再只关注“上门装龙虾赚26万”!深度解读OpenClaw背后的“意图入口”新战争 最近科技行业的热潮,充满了戏剧性的现实色彩。一只“红色龙虾”AI智能体搅动了整个市场:有人通过提供安装服务,收取每次五百元,短短几天就赚取二十六万元收入;腾讯大厦前甚至排起长队,大家竞相领取免费的安装体验权限。这场全
openclaw安装配置
一、系统要求 在开始安装 OpenClaw 之前,请务必确认您的计算机满足以下最低配置要求。这如同搭建房屋前检查地基,是确保后续安装流程顺利、软件稳定运行的前提。更高的硬件配置将为复杂任务处理和流畅体验提供有力保障。 操作系统:支持 Windows 10 及以上版本、macOS 最新稳定版,以及主流
自研第一个SKILL-openclaw入门
自研第一个SKILL:手把手教你开发openclaw自定义技能 当你成功构建好openclaw之后,如何让它真正“智能”起来?关键在于为其开发SKILL——这些技能是openclaw的“内功心法”,决定了它能帮你做什么、做多好。 本文将带你亲自动手,从零开始开发你的第一个openclaw自定义技能,
- 日榜
- 周榜
- 月榜
相关攻略
2015-03-10 11:25
2015-03-10 11:05
2021-08-04 13:30
2015-03-10 11:22
2015-03-10 12:39
2022-05-16 18:57
2025-05-23 13:43
2025-05-23 14:01
热门教程
- 游戏攻略
- 安卓教程
- 苹果教程
- 电脑教程

