全部动态

GitHub 狂揽 6.2 万 Star,Hermes Agent 火成这样,为什么还是把很多人劝退了?

04/12 2026

最近几周,全球 AI 开发者的 X 和 GitHub,几乎都绕不开一个名字:Hermes Agent。

从 2 月底开源首月破 2.2 万星,到 v0.8.0 发布后单日新增 6400+ 星,Hermes Agent 在不到两个月的时间里,总 Star 数已飙升至 6.2 万,几乎是“住在”了 GitHub 全球趋势榜第一。

Hermes Agent GitHub Star 趋势截图

图片来源:Github

有人说它是 OpenClaw 的最强平替,有人说它开启了“自进化 Agent”的元年。

Hermes Agent 真正吸引人的地方,不只是“又来了一个新的 Agent”。

它更像是在回答一个很多开发者都在关心的问题:

如果 Agent 不只是完成一次任务,而是能从任务中沉淀技能、保留记忆、逐步形成更稳定的做事方式,它会不会更接近大家真正想要的个人 AI 系统?

这也是 Hermes Agent 最打动人的地方。

按照官方仓库的描述,它强调的是一套“越用越会”的机制:

它会从经验中生成技能、在使用中不断改进、搜索过去的对话,并在跨会话中逐渐形成对用户更深的理解。v0.8.0 版本又进一步加入了后台任务自动通知、跨平台实时切换模型等能力,让这套系统感更强了。

说白一点,Hermes Agent 让很多人第一次更具体地感受到:

Agent 的上限,也许不只取决于“这一次会不会做”,

还取决于“下一次会不会因为过去做过而做得更好”。

这件事,确实很容易让人上头。

热度归热度,落地是另一回事。

Hermes Agent 火了之后,很多人的第一反应是想试。

但真正劝退人的,往往不是它的概念,而是它背后的那条运行链路。

你会很快遇到这些问题:

模型怎么接?

环境怎么配?

本地怎么跑?

速度能不能接受?

如果不想长期烧 API,能不能直接用本地模型把它跑顺?

官方仓库当然已经给了很多部署方式。Hermes Agent 支持运行在低成本 VPS、GPU 集群,也支持空闲时几乎不花钱的 serverless 基础设施。问题在于,“能部署” 和 “真好用” 之间,往往还隔着很长一段距离。

很多项目都是这样:看起来很强,演示也很惊艳,

但一到真正自己动手,就开始被环境、依赖、推理速度和本地部署链路劝退。

所以,Hermes Agent 这波热度背后,真正值得解决的问题其实非常明确:

怎么把一个很强的 Agent,变成一个真正能在本地稳定用起来的 Agent。

社区里到处在讨论怎么接各种模型。不过你会发现,大部分教程聊的都是接云端 API —— OpenRouter、DeepSeek、Kimi 之类的。

那一个很自然的问题就来了:能不能完全不依赖云端,模型跑在自己的设备上,然后让 Hermes Agent 来调?

答案是:能。而且比你想的简单得多。

关键角色是 OmniInfer。它是一个跨平台的端侧推理引擎,装完之后跑一个 ./omniinfer serve,你的设备就变成了一个本地版 OpenAI API 服务,暴露标准的 /v1/chat/completions 接口。Hermes Agent 那边只需要填一个地址就能对接上。

本文就是一步一步把这条链路跑通的完整教程。每条命令都实际执行过,终端输出都是真的。你跟着复制粘贴就能跑通。

说了这么多,接下来不谈概念,直接上手。

如果你前面已经被 Hermes Agent 种草,但又担心环境太复杂、链路太长、自己一上来就踩坑,那这一部分就是给你准备的。

这次我们不讲玄学,不绕弯子,

就做一件事:

把 Hermes Agent 真正跑起来。

而且不是停留在“理论上可以”,

而是尽量用一条更直接、更省事的路径,把它接进 OmniInfer,让它真正进入可用状态。

整个流程并不复杂,核心就分三步:

1.1 运行安装脚本

打开终端,Mac 和 Linux 用户复制这一行:

curl -fsSL https://raw.githubusercontent.com/omnimind-ai/OmniInfer/main/scripts/install.sh | bash

Windows 用户用 PowerShell:

irm https://raw.githubusercontent.com/omnimind-ai/OmniInfer/main/scripts/install.ps1 | iex

回车之后你会看到安装的欢迎横幅:

OmniInfer 安装脚本欢迎横幅

1.2 脚本第 3 步:选择推理后端(重要!需要你选)

OmniInfer 推理后端选择界面

这里需要你选一个推理后端。脚本会根据你的操作系统和硬件,列出所有可用的后端。用上下方向键移动光标,回车键确认选择。

建议:直接选第一个(默认高亮的那个)就行。脚本默认推荐的通常就是你设备上最合适的后端。

1.3 配置本地模型

可以直接回车,推荐模型为 Qwen2.5 系列(也可以自己下载 Gemma 4 等放在本地模型库),选好模型后,脚本自动下载到 OmniInfer/models/ 目录下:

OmniInfer 模型配置界面

如果你已经有模型文件了(比如之前从 HuggingFace 下载的 GGUF 文件),选这个,然后输入模型的完整路径:

Enter model path: /Users/用户名/OmniInfer/models/qwen2.5-7b-instruct-q4_k_m.gguf
[ OK ] Model: /Users/用户名/OmniInfer/models/qwen2.5-7b-instruct-q4_k_m.gguf

1.4 模型运行

如果你在第 5 步选了模型(下载或本地),脚本会自动加载模型并进入一个简单的对话界面,让你当场试试效果。输入 exit 退出。

OmniInfer 本地模型运行界面

1.5 启动 API 服务

安装脚本跑完后会自动退出服务。我们需要手动启动 API 服务 —— 这是让 Hermes Agent 能调用本地模型的关键:

cd /你的路径/OmniInfer
./omniinfer serve

启动成功后你会看到这样的日志输出:

2026-04-12 18:02:23.617 INFO  [runtime] RuntimeManager initialized: platform=mac
2026-04-12 18:02:23.617 INFO  [runtime] Backends discovered: llama.cpp-mac, mlx-mac, ...
2026-04-12 18:02:23.618 INFO  [startup] OmniInfer 0.2 starting
2026-04-12 18:02:23.624 INFO  [startup] Config: host=127.0.0.1 port=9000
2026-04-12 18:02:23.627 INFO  [gateway] OmniInfer listening on http://127.0.0.1:9000

重点看最后一行:OmniInfer listening on http://127.0.0.1:9000 —— 这表示 API 服务已经在 9000 端口监听了。

1.6 加载模型到 API 服务

curl -X POST http://127.0.0.1:9000/omni/model/select \
  -H "Content-Type: application/json" \
  -d '{"model": "/你的路径/OmniInfer/models/Qwen3.5-0.8B-Q4_K_M.gguf"}'
{
  "ok": true,
  "selected_backend": "llama.cpp-mac",
  "selected_model": "/Users/.../models/Qwen3.5-0.8B-Q4_K_M.gguf",
  "selected_mmproj": null,
  "selected_ctx_size": null
}

1.7 验证 API 是否正常工作

curl http://127.0.0.1:9000/v1/models
{
  "object": "list",
  "data": [
    {
      "id": "Qwen3.5-0.8B-Q4_K_M.gguf",
      "object": "model",
      "owned_by": "omniinfer"
    }
  ]
}
curl http://127.0.0.1:9000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "messages": [{"role": "user", "content": "你好,用一句话介绍你自己"}],
    "max_tokens": 100
  }'
{
  "choices": [
    {
      "message": {
        "role": "assistant",
        "content": "你好!我是 Qwen3.5,阿里巴巴集团最新推出的超大规模语言模型..."
      }
    }
  ],
  "model": "Qwen3.5-0.8B-Q4_K_M.gguf",
  "usage": {
    "prompt_tokens": 18,
    "completion_tokens": 44,
    "total_tokens": 62
  },
  "timings": {
    "prompt_per_second": 436.01,
    "predicted_per_second": 167.20
  }
}

模型正常回复了。注意看 timings 里的速度 —— prompt 处理 436 tokens/s,生成 167 tokens/s,这是 0.8B 小模型在 Apple Silicon 上的表现,基本感觉不到延迟。更大的模型速度会慢一些,但 7B Q4 在 16GB Mac 上也能达到 30~50 tokens/s,日常使用完全够了。

到这里,OmniInfer 这边就全部搞定了。记住这个地址:http://127.0.0.1:9000,后面配 Hermes Agent 要用。

2.1 一行命令安装 Hermes Agent:

curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

脚本会自动帮你装好 Python 3.11、Node.js v22、ripgrep 等一整套依赖,以及 Hermes Agent 本体和全局 hermes 命令。全程自动,不需要你操心。

安装过程中脚本会弹出交互式向导,问你选哪个模型提供商。如果此时 OmniInfer 的 ./omniinfer serve 已经在运行了,可以直接在这一步就配好 —— 往后面看 2.2 节的操作就行,流程完全一样。如果安装时先跳过了也没关系,装完随时用 hermes model 重新配。

装完后重新加载 shell:

source ~/.bashrc    # bash 用户
source ~/.zshrc     # zsh 用户(macOS 默认是 zsh)

验证一下:

hermes --version

输出如下信息则表明安装成功:

Hermes Agent v0.8.0 (2026.4.8)
Project: /Users/wangtuowei/.hermes/hermes-agent
Python: 3.11.13
OpenAI SDK: 2.31.0
Up to date

2.2 运行 hermes model 选择 API

现在来告诉 Hermes 用我们本地的 OmniInfer。确保 OmniInfer 的 ./omniinfer serve 还在运行,然后执行:

hermes model

弹出提供商选择菜单。Hermes 支持的提供商非常多,菜单第一页是这些:

? Select a provider:
Nous Portal (subscription, zero-config)
OpenAI Codex (ChatGPT OAuth)
Anthropic (Claude)
OpenRouter (200+ models)
Qwen OAuth
GitHub Copilot
Hugging Face
More providers...
Cancel

如果你之前已经配过一次 OmniInfer 的自定义端点,它会被自动保存,并且直接出现在这个菜单的第一页,类似这样:

? Select a provider:
Nous Portal (subscription, zero-config)
OpenAI Codex (ChatGPT OAuth)
...
❯ Local (127.0.0.1:9000) — Qwen3.5-0.8B-Q4_K_M.gguf
More providers...
Cancel

如果是第一次配,需要往下翻,选 "More providers...",在第二页找到:

...
Alibaba Cloud / DashScope
❯ Custom endpoint (enter URL manually)
Cancel

选 "Custom endpoint (enter URL manually)",回车。

2.3 填写连接信息

选完 Custom endpoint 后,Hermes 会依次问你 3 个信息:

第一、API 地址:

? Base URL: http://127.0.0.1:9000/v1

输入 http://127.0.0.1:9000/v1,回车。

第二、API Key:

? API Key (leave empty for local):

直接回车跳过,本地服务不需要认证。

第三、模型名称:

这一步很可能不用你手动填 —— Hermes 输入完地址后会自动探测 OmniInfer 的 /v1/models 接口。如果 OmniInfer 里只加载了一个模型,Hermes 会直接自动识别:

✓ Auto-detected model: Qwen3.5-0.8B-Q4_K_M.gguf

如果加载了多个模型,Hermes 会列出来让你选。

配置完成后确认:

✓ Model configured: Qwen3.5-0.8B-Q4_K_M.gguf via custom endpoint

同时这个端点会被自动保存到 ~/.hermes/config.yaml 的 custom_providers 里。下次跑 hermes model 时就直接出现在第一页了,不需要再从头填。

确保 OmniInfer 还在运行(第一步启动的 ./omniinfer serve),然后运行:

hermes

进入 Hermes 的交互式对话界面。随便问一句:

Hermes Agent 连接 OmniInfer 后的交互界面

如果模型正常回复了,整条链路跑通了。

试试 Agent 的真正能力 —— 它不只是聊天,它能主动调工具:

> 帮我看看当前目录有哪些文件
> 写个 Python 脚本计算斐波那契数列前 20 项

Hermes 会自动调终端命令、写代码、执行验证。这就是 Agent 和普通聊天机器人的本质区别。

我们也在持续建设端侧 AI 开发者社区。

如果你对本地 AI、Agent、端侧推理感兴趣,欢迎加入交流,一起把真正可落地的端侧 AI 生态做出来。

OmniMind 开发者社区二维码
万象智维分隔图

万象智维 Omnimind 依托清华大学泛在智能实验室(THU OmniLab)团队孵化成立,是一家聚焦端侧智能与协作智能方向的创新型科技公司。公司秉持“让智能真正发生在端侧”的技术愿景,致力于将前沿学术研究成果转化为可落地、可规模化的端侧智能系统与解决方案,推动智能计算从云端走向终端、从中心走向协同。

公司核心团队成员来自清华大学、北京大学、上海交通大学、浙江大学、密歇根大学安娜堡分校、加州大学圣地亚哥分校,以及腾讯、阿里、字节、华为、微软等顶尖高校与互联网企业。团队长期聚焦端侧模型轻量化与高效推理、端侧模型系统优化与计算加速、多端协作与端云协同推理等关键方向,持续推进系统性的技术攻关与工程实践,在相关领域形成了扎实的技术积累与较强的行业影响力。近年来,团队先后主持多项国家自然科学基金重点项目、专项重点项目、优秀青年科学基金项目及国家重点研发计划课题等国家级科研任务,并与华为、荣耀、蚂蚁、字节跳动等头部企业建立了紧密的学术与技术合作关系。

Website: https://omnimind.com.cn

Github: https://github.com/omnimind-ai

Email: info@omnimind.com.cn