开发者文档

后端列表

当前 Linux 后端

当前 OmniInfer 文档和实现中,Linux 侧可见的 backend ID 主要包括:

  • llama.cpp-linux
  • llama.cpp-linux-rocm
  • llama.cpp-linux-vulkan
  • llama.cpp-linux-s390x
  • llama.cpp-linux-openvino

并不是所有 backend 都会在每台机器上真正可用。

是否可用取决于:

  • 你是否已经构建或打包了对应 runtime
  • 当前平台架构是否匹配
  • 相关动态库和工具链是否齐全

如何判断可用性

./omniinfer backend list

列表中的 Runtime available 本质上反映的是当前 backend 的 launcher 或依赖是否已经能被本地发现。

默认 backend

Linux 上默认 backend 通常是:

  • llama.cpp-linux

如果宿主架构是 s390x,默认会偏向:

  • llama.cpp-linux-s390x
OmniMind

万象智维

Omni Studio 公众号二维码

公众号

Omni Studio 小红书二维码

小红书

© 2025 万象智维科技有限公司. All rights reserved.

京ICP备2025136340号-1