最近几周,全球 AI 开发者的 X 和 GitHub,几乎都绕不开一个名字:Hermes Agent。
从 2 月底开源首月破 2.2 万星,到 v0.8.0 发布后单日新增 6400+ 星,Hermes Agent 在不到两个月的时间里,总 Star 数已飙升至 6.2 万,几乎是“住在”了 GitHub 全球趋势榜第一。

图片来源:Github
有人说它是 OpenClaw 的最强平替,有人说它开启了“自进化 Agent”的元年。
Hermes Agent 真正吸引人的地方,不只是“又来了一个新的 Agent”。
它更像是在回答一个很多开发者都在关心的问题:
如果 Agent 不只是完成一次任务,而是能从任务中沉淀技能、保留记忆、逐步形成更稳定的做事方式,它会不会更接近大家真正想要的个人 AI 系统?
这也是 Hermes Agent 最打动人的地方。
按照官方仓库的描述,它强调的是一套“越用越会”的机制:
它会从经验中生成技能、在使用中不断改进、搜索过去的对话,并在跨会话中逐渐形成对用户更深的理解。v0.8.0 版本又进一步加入了后台任务自动通知、跨平台实时切换模型等能力,让这套系统感更强了。
说白一点,Hermes Agent 让很多人第一次更具体地感受到:
Agent 的上限,也许不只取决于“这一次会不会做”,
还取决于“下一次会不会因为过去做过而做得更好”。
这件事,确实很容易让人上头。
热度归热度,落地是另一回事。
Hermes Agent 火了之后,很多人的第一反应是想试。
但真正劝退人的,往往不是它的概念,而是它背后的那条运行链路。
你会很快遇到这些问题:
模型怎么接?
环境怎么配?
本地怎么跑?
速度能不能接受?
如果不想长期烧 API,能不能直接用本地模型把它跑顺?
官方仓库当然已经给了很多部署方式。Hermes Agent 支持运行在低成本 VPS、GPU 集群,也支持空闲时几乎不花钱的 serverless 基础设施。问题在于,“能部署” 和 “真好用” 之间,往往还隔着很长一段距离。
很多项目都是这样:看起来很强,演示也很惊艳,
但一到真正自己动手,就开始被环境、依赖、推理速度和本地部署链路劝退。
所以,Hermes Agent 这波热度背后,真正值得解决的问题其实非常明确:
怎么把一个很强的 Agent,变成一个真正能在本地稳定用起来的 Agent。
社区里到处在讨论怎么接各种模型。不过你会发现,大部分教程聊的都是接云端 API —— OpenRouter、DeepSeek、Kimi 之类的。
那一个很自然的问题就来了:能不能完全不依赖云端,模型跑在自己的设备上,然后让 Hermes Agent 来调?
答案是:能。而且比你想的简单得多。
关键角色是 OmniInfer。它是一个跨平台的端侧推理引擎,装完之后跑一个 ./omniinfer serve,你的设备就变成了一个本地版 OpenAI API 服务,暴露标准的 /v1/chat/completions 接口。Hermes Agent 那边只需要填一个地址就能对接上。
本文就是一步一步把这条链路跑通的完整教程。每条命令都实际执行过,终端输出都是真的。你跟着复制粘贴就能跑通。
说了这么多,接下来不谈概念,直接上手。
如果你前面已经被 Hermes Agent 种草,但又担心环境太复杂、链路太长、自己一上来就踩坑,那这一部分就是给你准备的。
这次我们不讲玄学,不绕弯子,
就做一件事:
把 Hermes Agent 真正跑起来。
而且不是停留在“理论上可以”,
而是尽量用一条更直接、更省事的路径,把它接进 OmniInfer,让它真正进入可用状态。
整个流程并不复杂,核心就分三步:
1.1 运行安装脚本
打开终端,Mac 和 Linux 用户复制这一行:
curl -fsSL https://raw.githubusercontent.com/omnimind-ai/OmniInfer/main/scripts/install.sh | bashWindows 用户用 PowerShell:
irm https://raw.githubusercontent.com/omnimind-ai/OmniInfer/main/scripts/install.ps1 | iex回车之后你会看到安装的欢迎横幅:

1.2 脚本第 3 步:选择推理后端(重要!需要你选)

这里需要你选一个推理后端。脚本会根据你的操作系统和硬件,列出所有可用的后端。用上下方向键移动光标,回车键确认选择。
建议:直接选第一个(默认高亮的那个)就行。脚本默认推荐的通常就是你设备上最合适的后端。
1.3 配置本地模型
可以直接回车,推荐模型为 Qwen2.5 系列(也可以自己下载 Gemma 4 等放在本地模型库),选好模型后,脚本自动下载到 OmniInfer/models/ 目录下:

如果你已经有模型文件了(比如之前从 HuggingFace 下载的 GGUF 文件),选这个,然后输入模型的完整路径:
Enter model path: /Users/用户名/OmniInfer/models/qwen2.5-7b-instruct-q4_k_m.gguf
[ OK ] Model: /Users/用户名/OmniInfer/models/qwen2.5-7b-instruct-q4_k_m.gguf1.4 模型运行
如果你在第 5 步选了模型(下载或本地),脚本会自动加载模型并进入一个简单的对话界面,让你当场试试效果。输入 exit 退出。

1.5 启动 API 服务
安装脚本跑完后会自动退出服务。我们需要手动启动 API 服务 —— 这是让 Hermes Agent 能调用本地模型的关键:
cd /你的路径/OmniInfer
./omniinfer serve启动成功后你会看到这样的日志输出:
2026-04-12 18:02:23.617 INFO [runtime] RuntimeManager initialized: platform=mac
2026-04-12 18:02:23.617 INFO [runtime] Backends discovered: llama.cpp-mac, mlx-mac, ...
2026-04-12 18:02:23.618 INFO [startup] OmniInfer 0.2 starting
2026-04-12 18:02:23.624 INFO [startup] Config: host=127.0.0.1 port=9000
2026-04-12 18:02:23.627 INFO [gateway] OmniInfer listening on http://127.0.0.1:9000重点看最后一行:OmniInfer listening on http://127.0.0.1:9000 —— 这表示 API 服务已经在 9000 端口监听了。
1.6 加载模型到 API 服务
curl -X POST http://127.0.0.1:9000/omni/model/select \
-H "Content-Type: application/json" \
-d '{"model": "/你的路径/OmniInfer/models/Qwen3.5-0.8B-Q4_K_M.gguf"}'{
"ok": true,
"selected_backend": "llama.cpp-mac",
"selected_model": "/Users/.../models/Qwen3.5-0.8B-Q4_K_M.gguf",
"selected_mmproj": null,
"selected_ctx_size": null
}1.7 验证 API 是否正常工作
curl http://127.0.0.1:9000/v1/models{
"object": "list",
"data": [
{
"id": "Qwen3.5-0.8B-Q4_K_M.gguf",
"object": "model",
"owned_by": "omniinfer"
}
]
}curl http://127.0.0.1:9000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"messages": [{"role": "user", "content": "你好,用一句话介绍你自己"}],
"max_tokens": 100
}'{
"choices": [
{
"message": {
"role": "assistant",
"content": "你好!我是 Qwen3.5,阿里巴巴集团最新推出的超大规模语言模型..."
}
}
],
"model": "Qwen3.5-0.8B-Q4_K_M.gguf",
"usage": {
"prompt_tokens": 18,
"completion_tokens": 44,
"total_tokens": 62
},
"timings": {
"prompt_per_second": 436.01,
"predicted_per_second": 167.20
}
}模型正常回复了。注意看 timings 里的速度 —— prompt 处理 436 tokens/s,生成 167 tokens/s,这是 0.8B 小模型在 Apple Silicon 上的表现,基本感觉不到延迟。更大的模型速度会慢一些,但 7B Q4 在 16GB Mac 上也能达到 30~50 tokens/s,日常使用完全够了。
到这里,OmniInfer 这边就全部搞定了。记住这个地址:http://127.0.0.1:9000,后面配 Hermes Agent 要用。
2.1 一行命令安装 Hermes Agent:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash脚本会自动帮你装好 Python 3.11、Node.js v22、ripgrep 等一整套依赖,以及 Hermes Agent 本体和全局 hermes 命令。全程自动,不需要你操心。
安装过程中脚本会弹出交互式向导,问你选哪个模型提供商。如果此时 OmniInfer 的 ./omniinfer serve 已经在运行了,可以直接在这一步就配好 —— 往后面看 2.2 节的操作就行,流程完全一样。如果安装时先跳过了也没关系,装完随时用 hermes model 重新配。
装完后重新加载 shell:
source ~/.bashrc # bash 用户
source ~/.zshrc # zsh 用户(macOS 默认是 zsh)验证一下:
hermes --version输出如下信息则表明安装成功:
Hermes Agent v0.8.0 (2026.4.8)
Project: /Users/wangtuowei/.hermes/hermes-agent
Python: 3.11.13
OpenAI SDK: 2.31.0
Up to date2.2 运行 hermes model 选择 API
现在来告诉 Hermes 用我们本地的 OmniInfer。确保 OmniInfer 的 ./omniinfer serve 还在运行,然后执行:
hermes model弹出提供商选择菜单。Hermes 支持的提供商非常多,菜单第一页是这些:
? Select a provider:
Nous Portal (subscription, zero-config)
OpenAI Codex (ChatGPT OAuth)
Anthropic (Claude)
OpenRouter (200+ models)
Qwen OAuth
GitHub Copilot
Hugging Face
More providers...
Cancel如果你之前已经配过一次 OmniInfer 的自定义端点,它会被自动保存,并且直接出现在这个菜单的第一页,类似这样:
? Select a provider:
Nous Portal (subscription, zero-config)
OpenAI Codex (ChatGPT OAuth)
...
❯ Local (127.0.0.1:9000) — Qwen3.5-0.8B-Q4_K_M.gguf
More providers...
Cancel如果是第一次配,需要往下翻,选 "More providers...",在第二页找到:
...
Alibaba Cloud / DashScope
❯ Custom endpoint (enter URL manually)
Cancel选 "Custom endpoint (enter URL manually)",回车。
2.3 填写连接信息
选完 Custom endpoint 后,Hermes 会依次问你 3 个信息:
第一、API 地址:
? Base URL: http://127.0.0.1:9000/v1输入 http://127.0.0.1:9000/v1,回车。
第二、API Key:
? API Key (leave empty for local):直接回车跳过,本地服务不需要认证。
第三、模型名称:
这一步很可能不用你手动填 —— Hermes 输入完地址后会自动探测 OmniInfer 的 /v1/models 接口。如果 OmniInfer 里只加载了一个模型,Hermes 会直接自动识别:
✓ Auto-detected model: Qwen3.5-0.8B-Q4_K_M.gguf如果加载了多个模型,Hermes 会列出来让你选。
配置完成后确认:
✓ Model configured: Qwen3.5-0.8B-Q4_K_M.gguf via custom endpoint同时这个端点会被自动保存到 ~/.hermes/config.yaml 的 custom_providers 里。下次跑 hermes model 时就直接出现在第一页了,不需要再从头填。
确保 OmniInfer 还在运行(第一步启动的 ./omniinfer serve),然后运行:
hermes进入 Hermes 的交互式对话界面。随便问一句:

如果模型正常回复了,整条链路跑通了。
试试 Agent 的真正能力 —— 它不只是聊天,它能主动调工具:
> 帮我看看当前目录有哪些文件
> 写个 Python 脚本计算斐波那契数列前 20 项Hermes 会自动调终端命令、写代码、执行验证。这就是 Agent 和普通聊天机器人的本质区别。
我们也在持续建设端侧 AI 开发者社区。
如果你对本地 AI、Agent、端侧推理感兴趣,欢迎加入交流,一起把真正可落地的端侧 AI 生态做出来。


万象智维 Omnimind 依托清华大学泛在智能实验室(THU OmniLab)团队孵化成立,是一家聚焦端侧智能与协作智能方向的创新型科技公司。公司秉持“让智能真正发生在端侧”的技术愿景,致力于将前沿学术研究成果转化为可落地、可规模化的端侧智能系统与解决方案,推动智能计算从云端走向终端、从中心走向协同。
公司核心团队成员来自清华大学、北京大学、上海交通大学、浙江大学、密歇根大学安娜堡分校、加州大学圣地亚哥分校,以及腾讯、阿里、字节、华为、微软等顶尖高校与互联网企业。团队长期聚焦端侧模型轻量化与高效推理、端侧模型系统优化与计算加速、多端协作与端云协同推理等关键方向,持续推进系统性的技术攻关与工程实践,在相关领域形成了扎实的技术积累与较强的行业影响力。近年来,团队先后主持多项国家自然科学基金重点项目、专项重点项目、优秀青年科学基金项目及国家重点研发计划课题等国家级科研任务,并与华为、荣耀、蚂蚁、字节跳动等头部企业建立了紧密的学术与技术合作关系。
Website: https://omnimind.com.cn
Github: https://github.com/omnimind-ai
Email: info@omnimind.com.cn